Cerca
Close this search box.
Cerca

Clic artificiali per vendere pubblicità

È successo l’anno scorso per la prima volta: il traffico generato dai bot, i programmi informatici che simulano il modo in cui una persona naviga in rete, ha superato quello umano. Secondo l’azienda Incapsula, specializzata nella sicurezza online, nel 2013 il 61,5% del traffico sul web non è stato fatto da persone in carne e ossa. Potreste pensare che questa notizia preannuncia l’arrivo dell’“internet delle cose”, di cui abbiamo parlato qualche settimana fa, la rete che collega il frigorifero e l’auto al vostro smartphone. Ma non è così. I responsabili sono programmi di indicizzazione dei motori di ricerca e altri software. Un fenomeno del genere si può definire semmai l’“internet dei così”. Un bot non è difficile da creare. Ne sarebbe capace perfino un giornalista che non ha dimestichezza con il codice informatico. In molti lo possono fare con un programma chiamato UBot Studio che costa trecento dollari. Volete rubare qualche numero da un sito governativo? Ci vogliono dieci minuti. Volete generare centomila visite in più su un sito? Semplice. Vi spiego come si fa.

L’obiettivo è imitare gli esseri umani. Quindi non basta fare centomila visite alla stessa pagina: sarebbe sospetto. Bisogna distribuire il traffico fra un certo numero di pagine. Meglio evitare quelle che nessuno visita mai. Quelle che vi servono sono le pagine frequentate, ma non le più visitate o le più recenti. Per fortuna Google attribuisce ai contenuti più recenti e visitati una buona posizione nei risultati di ricerca. Ubot è a sua volta formato da due piccoli bot che lavorano insieme. Il primo raccoglie i suggerimenti di Google sulle ricerche in rete. Comincia con i risultati meglio posizionati con la lettera A (Amazon, Apple), poi passa alla B e via dicendo. Il secondo estrae gli indirizzi internet dai risultati di Google.

Il primo passo consiste nell’usare i suggerimenti di ricerca più usati per trovare le pagine più visitate di un dominio (per esempio theatlantic.com) e nel salvare tutti questi indirizzi. La prima ricerca sarà “amazon site:theatlantic.com”. I primi venti indirizzi, tutti corrispondenti ad articoli dell’Atlantic, saranno copiati su un file. Poi il bot cercherà “apple site:theatlantic.com” e incollerà altri venti indirizzi nel file. E così via fino a mille. A questo punto non bisogna far altro che ordinare al programma di visitare ogni articolo, aspettare che la pagina si carichi e continuare con il successivo. Fate girare il programma per cento volte e il gioco è fatto. Il bot che ho descritto qui sarebbe facile da individuare. Se ci fosse qualcuno che controlla, dovreste essere più raffinati per non farvi scoprire.

robot

Quando un browser si collega a un sito, gli invia una breve stringa identificativa che indica che programma state usando, il sistema operativo e via dicendo. Se lanciassimo il programma così com’è, nella cronologia del sito comparirebbero centomila messaggi di browser identici, che potrebbero creare sospetti. Ma il rapporto tra browser e siti è fondato sulla fiducia. Qualunque browser può dire: “Sono Chrome e giro su un Mac”. E in efetti nella rete si trovano piccoli software che forniscono dati “realistici” e che si possono usare comodamente con Ubot. La cosa più dificile è nascondere gli indirizzi di provenienza delle visite. centomila visite provenienti da un solo computer rivelerebbero che si tratta di un bot.

Per questo si può affittare una botnet: una rete di computer manipolati. Oppure si può usare un servizio come JingLing, che permette di inviare traffico a determinati siti da indirizzi diversi. Ma se i bot si usano bene a nessuno viene in mente di verificare cosa sta succedendo. Nell’esempio che ho usato, nessuna pagina riceve più di cento visite, ma nel complesso il sito ne ottiene centomila in più. L’impressione è che il traffico sia aumentato, ma i dati finiscono nella parte bassa delle statistiche sul traffico, che di solito non guarda quasi nessuno.

Creare bot è così facile che questi programmi generano più traffico web degli esseri umani. Per capire il web umano quindi dobbiamo fare i conti con quello non umano. Si tratta in parte di un traffico illegale, che permette a chi raccoglie la pubblicità di fare affari. Costringe gli editori ad abbassare i prezzi degli spazi pubblicitari e a spendere meno per i contenuti di qualità. I bot fanno male a quello che leggete tutti i giorni su internet. E stanno crescendo sotto la superficie brillante del web che conosciamo e amiamo.

Condividi

Altre news