Prestito personale

Delibera veloce

 

Gli editori si chiudono allo scraping AI: sta per saltare il patto per l’open web


Comincia l’autodifesa degli editori verso quella che vedono come il più grande furto pseudo-legalizzato nella storia: fatto dagli strumenti di AI sui loro contenuti.

Opportunità uniche acquisto in asta

 ribassi fino al 70%

 

Finora gli editori hanno reagito in due modi: accordi di licenza o cause (anche entrambe le cose, con soggetti diversi). Sta emergendo una terza via, più tecnica: adottare soluzioni per bloccare lo scraping fatto dai crawler di AI.

Cloudflare e il muro anti-AI: dal blocco di default dello scraping AI al “pay-per-crawl”

Uno dei segnali più forti arriva da Cloudflare, colosso delle infrastrutture web, che ha annunciato che d’ora in poi bloccherà di default i bot AI dai siti che ospita. I clienti potranno autorizzare specifici crawler e, novità assoluta, potranno stabilire una tariffa per ogni richiesta di crawling, introducendo così una logica di “pay-per-crawl”.

“Tradizionalmente, l’accordo implicito era che un motore di ricerca potesse indicizzare i tuoi contenuti, poi mostrava i link e ti restituiva traffico”, ha dichiarato Will Allen, responsabile AI privacy e media di Cloudflare. “Questo paradigma sta cambiando radicalmente.” Cloudflare ha anche sviluppato strumenti per identificare i bot trasparenti e facilitare negoziati tra aziende AI e editori, ma per i soggetti meno collaborativi utilizzerà tecniche già impiegate contro attacchi DDoS. Tra queste, l’invio dei bot verso labirinti di pagine fasulle generate da AI, pensate per far perdere loro tempo e risorse.

Alternative per bloccare lo scraping AI

Altre aziende, tra cui Fastly e DataDome, cercano anch’esse di aiutare gli editori a gestire i bot indesiderati. Le aziende tecnologiche hanno pochi incentivi a collaborare con gli intermediari, ma gli editori affermano di essere desiderosi almeno di provare a limitare l’uso del loro lavoro.

Anubis: lo scudo indipendente contro gli scraper

La resistenza però non è solo nelle mani delle big tech. Xe Iaso, sviluppatrice indipendente, ha creato Anubis, uno strumento open source che verifica automaticamente se chi accede a un sito è un utente umano o un bot . Invece dei tradizionali CAPTCHA, Anubis richiede al browser di eseguire operazioni crittografiche in JavaScript: un compito banale per un utente reale, ma dispendioso per chi lancia milioni di richieste automatiche. Adottato da realtà come GNOME, FFmpeg e perfino l’UNESCO, Anubis è una risposta leggera, gratuita e decentralizzata al problema dello scraping non autorizzato. Ma Iaso è chiara: è un gioco infinito tra gatto e topo. “Se fai pipì nell’oceano, l’oceano non diventa pipì,” ha commentato a proposito delle strategie per inquinare i dataset delle AI. “Servono soluzioni più intelligenti, scalabili e sostenibili.”

Richiedi prestito online

Procedura celere

 

Il problema di fondo: si è rotto un patto e internet non sarà più la stessa

Di fondo bisogna capire che l’ascesa dei modelli di intelligenza artificiale generativa sta ridisegnando in profondità le dinamiche dell’ecosistema digitale. Strumenti come ChatGPT, Gemini o Claude attingono a contenuti pubblicati online per alimentare le proprie risposte, spesso senza consenso esplicito né compenso per chi quei contenuti li ha creati. Per gli editori e i creatori di contenuti, questa situazione si traduce in un’erosione del valore, in un calo di traffico e, sempre più spesso, in un confronto aperto con le piattaforme AI. Una nuova battaglia si sta consumando sotto la superficie del web: quella tra chi cerca di proteggere il proprio lavoro e chi punta a raccoglierlo senza barriere. Con conseguenze potenzialmente dirompenti, non solo per il business dell’informazione ma per la struttura stessa della rete.

Dalla visibilità al blocco: un cambio di paradigma

Per oltre due decenni, la visibilità online si è basata su un patto non scritto, in cambio della possibilità di indicizzare i contenuti, i motori di ricerca restituivano traffico agli editori. Era un equilibrio fragile, ma funzionale. Oggi, quell’equilibrio è saltato. Con l’avvento dei chatbot generativi, molti utenti ricevono risposte dirette senza più dover cliccare su un link. L’effetto è misurabile. Secondo i dati di Similarweb, il traffico da ricerca organica è crollato: oltre il 50% in meno per HuffPost e Washington Post negli ultimi tre anni, -55% per Business Insider tra aprile 2022 e aprile 2025. Anche il New York Times registra un calo sensibile. Il CEO di The Atlantic, Nicholas Thompson, ha dichiarato che l’azienda sta operando partendo dall’ipotesi che il traffico da Google tenderà a zero. Un ruolo chiave in questa trasformazione lo sta giocando Google stessa, con l’introduzione di AI Overviews una funzionalità che riassume i risultati di ricerca generando risposte sintetiche direttamente nella pagina, in cima ai link organici. Questo riduce drasticamente la necessità per l’utente di cliccare sui risultati tradizionali, con un impatto diretto sul traffico ai siti di informazione. Le pagine più colpite includono guide di viaggio, consigli sulla salute, e recensioni di prodotto: tutti contenuti che alimentano direttamente le risposte AI senza generare visite. È il “futuro zero-click” che molti temono, un web dove le AI rispondono senza rimandare alle fonti e gli editori vedono svanire il valore della propria presenza online.

La risposta degli editori: cause legali, accordi e nuove barriere

In risposta, le grandi testate hanno intrapreso azioni legali, firmato accordi commerciali o spesso entrambe le cose. Il New York Times ha fatto causa a OpenAI e Microsoft per violazione del copyright, pur firmando un accordo di licenza con Amazon. News Corp, casa madre del Wall Street Journal, ha stretto un’intesa con OpenAI e ha citato in giudizio Perplexity tramite due sue controllate. Nel 2024 anche il Financial Times ha firmato un accordo di licenza con OpenAI, consentendo l’uso dei propri contenuti archivistici per l’addestramento e le risposte fornite da ChatGPT, in cambio di visibilità e compensazione economica.

Altri esempi: Reddit ha denunciato Anthropic, accusandola di aver effettuato scraping su larga scala nonostante promesse di cessazione. iFixit ha bloccato l’accesso dopo che i server sono stati colpiti da un milione di richieste in 24 ore. E Wikimedia, che gestisce Wikipedia, ha annunciato una revisione delle proprie policy per identificare i riutilizzi su larga scala che stanno mettendo sotto pressione la propria infrastruttura.

Il rischio collaterale: un web più chiuso?

A preoccupare alcuni osservatori è il rischio che queste contromisure possano danneggiare anche usi legittimi del crawling, come la ricerca scientifica o l’archiviazione digitale. Shayne Longpre, ricercatore del MIT Media Lab, mette in guardia: “Non tutti i sistemi AI competono con gli editori. Non tutti sono commerciali. Non possiamo sacrificare l’uso personale o la ricerca aperta.” In questo contesto, l’obiettivo non dovrebbe essere blindare il web, ma garantire trasparenza, tracciabilità e regole condivise sull’uso dei dati. Cloudflare, ad esempio, sostiene che la verifica dei bot possa aiutare i publisher a lasciare i propri contenuti aperti agli umani, ma chiusi agli scraper opportunisti.

Verso una nuova architettura del web?

Il conflitto tra editori e aziende AI non è solo giuridico o tecnologico è soprattutto politico ed economico. Riguarda chi ha il diritto di accedere ai contenuti, come questi vengono valorizzati e quale sarà il futuro del web come spazio pubblico.
Se l’AI rappresenta una nuova infrastruttura cognitiva globale, allora servono nuovi meccanismi di compensazione, attribuzione e governance. In gioco c’è molto più di qualche punto di traffico organico, c’è la sostenibilità dell’ecosistema informativo, la difesa dei diritti dei creatori e la possibilità per il web di rimanere uno spazio realmente aperto e pluralista. Oggi è il momento di decidere se vogliamo un’AI che coopera con l’ecosistema digitale o lo cannibalizza. La risposta, anche normativa, non può più attendere.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

 

Mutuo casa veloce

Mutuo fino al 100%

 

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Finanziamo agevolati

Contributi per le imprese