Salta al contenuto

Reddit aggiorna i suoi standard per bloccare lo scraping automatico dei siti web

Photo by Brett Jordan / Unsplash

Questa pagina contiene un riassunto del seguente articolo:

https://www.reuters.com/technology/reddit-update-web-standard-block-automated-website-scraping-2024-06-25/

68%
del testo originale
2
minuti risparmiati

Riassunto

Reddit ha annunciato che aggiornerà il Robots Exclusion Protocol, noto come "robots.txt", per bloccare la raccolta automatizzata di dati dal suo sito.

Questa decisione segue le accuse rivolte alle startup di intelligenza artificiale di plagiare contenuti senza dare credito o autorizzazione.

Oltre all'aggiornamento del robots.txt, Reddit manterrà il rate-limiting per controllare il numero di richieste e bloccherà i bot e crawler sconosciuti.

La mossa arriva dopo un'indagine di Wired che ha rivelato che Perplexity, una startup di ricerca AI, ha bypassato gli sforzi per bloccare il suo crawler.

Reddit permetterà comunque l'accesso ai contenuti per uso non commerciale a ricercatori e organizzazioni come ad esempio l'Internet Archive.

Attendibilità fonte

Reuters è una fonte altamente rispettata e affidabile nel campo delle notizie economiche e tecnologiche. Con una reputazione per imparzialità e accuratezza, Reuters fornisce un'analisi approfondita e un fact-checking rigoroso, rendendola una delle agenzie di stampa più autorevoli a livello mondiale​​.

L'attendibilità della fonte è stata analizzata tramite Media Bias/Fact Check.

I testi presenti all'interno di questa pagina sono stati inizialmente generati tramite intelligenza artificiale e poi revisionati e corretti a mano.

Commenti

Più recenti