Gli editori online devono consentire lo scraping AI da Google o perdere visibilità
Cosa sapere
- Gli editori online si trovano di fronte a un dilemma: consentire lo scraping tramite intelligenza artificiale di Google o perdere visibilità nelle ricerche.
- Le risposte di ricerca generate dall’intelligenza artificiale di Google potrebbero ridurre significativamente il traffico organico verso i siti web.
- Il Dipartimento di Giustizia degli Stati Uniti sta valutando diverse opzioni per affrontare la posizione dominante di Google sul mercato.
Nell’era dell’intelligenza artificiale e del bullismo delle grandi aziende tecnologiche, gli editori online si sono improvvisamente trovati incastrati tra l’incudine e il martello. Ora sono tenuti a consentire a Google di utilizzare i loro contenuti per le risposte di ricerca generate dall’intelligenza artificiale, altrimenti rischiano di perdere visibilità nei risultati di ricerca.
Il web crawler di Google, Googlebot, analizza i siti web per creare risultati di ricerca ed è il worm alla base di questo problema perché ora ha un duplice scopo: raccogliere dati sia per i risultati di ricerca tradizionali sia per le risposte generate dall’intelligenza artificiale.
Ciò significa che gli editori che impediscono a Google di utilizzare i propri contenuti per le risposte AI impediscono anche che le proprie pagine appaiano nei risultati di ricerca standard. Poiché la visibilità della ricerca è fondamentale per la loro sopravvivenza, ciò li mette in una posizione difficile.
Kyle Wiens, CEO di iFixit, ha sottolineato questa sfida, affermando che bloccare il crawler di Google si tradurrebbe in una perdita di traffico e clienti.
L’approccio di Google gli conferisce un vantaggio significativo rispetto alle aziende AI più piccole. Mentre altre aziende spesso pagano per accedere ai dati degli editori, Google ottiene queste informazioni senza alcun costo in cambio della visibilità della ricerca.
L’impatto sugli editori potrebbe essere sostanziale. I report suggeriscono che le risposte di ricerca generate dall’intelligenza artificiale di Google potrebbero portare a una diminuzione del 20-60% del traffico di ricerca organico.
Questa situazione ha attirato l’attenzione del Dipartimento di Giustizia degli Stati Uniti. Dopo una recente sentenza contro Google, il dipartimento sta valutando varie opzioni. Una di queste è quella di dividere potenzialmente parti dell’azienda, così come quella di obbligare Google a condividere i dati di ricerca con i concorrenti.
Con l’evoluzione del panorama digitale, la relazione tra motori di ricerca, IA e creatori di contenuti continua a essere una questione complessa e controversa. L’esito di questa situazione potrebbe avere effetti di vasta portata sul modo in cui le informazioni vengono scoperte e consumate online e sulla sopravvivenza e il successo degli editori online indipendenti.
Lascia un commento