Gli editori: robots.txt è roba vecchia

Gli editori: robots.txt è roba vecchia

Numerose associazioni di editori hanno compilato un protocollo standard che permette loro di decidere come i contenuti vengano indicizzati e trattati dai motori di ricerca
Numerose associazioni di editori hanno compilato un protocollo standard che permette loro di decidere come i contenuti vengano indicizzati e trattati dai motori di ricerca

Via libera alla negoziazione tra editori e crawler dei motori di ricerca. I documenti protetti da copyright potrebbero non essere più disseminati senza controllo fra le pagine dei risultati offerti dai trovarobe sul web : con l’avvento dello standard Automated Content Access Protocol (ACAP), annunciato ieri, sono i detentori dei diritti sui contenuti delle pagine web a decidere il destino dei propri testi, delle proprie immagini e dei propri video.

L’idea di lavorare ad un protocollo più sofisticato dell’ormai tredicenne robots.txt era stata annunciata nel 2006 da un gruppo di esponenti dell’editoria online, che rivendicavano ai motori di ricerca un più ferreo controllo sui propri contenuti . È poco flessibile lo standard finora utilizzato dai webmaster per impartire istruzioni ai bot che battono a tappeto la rete raccogliendo contenuti da indicizzare. Troppo limitativo per autori e editori gestire testi, video e immagini semplicemente concedendo o negando l’indexing: la scelta aut aut impediva ai detentori dei diritti di regolare l’accesso ai propri contenuti con una serie di paletti e di concessioni.

L’esigenza di un controllo più stringente si è mostrata evidente ai detentori dei diritti con l’avvento di servizi di aggregazione di notizie offerti dai motori di ricerca, non sempre disposti ad adeguarsi al loro concetto di fair use .

Sarà il bollino digitale ACAP, opportunamente declinato dagli editori, ad elargire concessioni e a impartire istruzioni ai crawler, a determinare tempi e modalità dell’indexing dei contenuti. Le principali novità? La possibilità di imporre dei limiti temporali all’indicizzazione e alla conservazione nella cache, la possibilità di limitare ad anteprime o sommari i contenuti che i motori di ricerca possono mostrare attraverso i loro servizi. Ulteriore tag dello standard ACAP, un misterioso ” other “, capace di bandire tutti gli utilizzi del contenuto se non quelli espressamente permessi attraverso gli altri comandi. Grande escluso dal protocollo è il tag che avrebbe garantito agli editori di decidere sull’accesso ai documenti in base alla localizzazione della ricerca: “la tecnologia – ha spiegato Francis Cave, a capo della divisione tecnica di ACAP – non è ancora affidabile al cento per cento”.

Il protocollo ACAP, un anno di sperimentazioni alle spalle con la collaborazione del motore di ricerca francese Exalead , è stato rilasciato come standard aperto . Non sarà solo appannaggio delle organizzazioni che hanno inizialmente aderito al progetto, potrà essere implementato e personalizzato a seconda delle esigenze.

Nelle FAQ dedicate ad ACAP si spiega che non c’è ragione per cui, online, gli editori non possano negoziare con terze parti delle esclusive, non c’è ragione per cui non possano decidere se incoraggiare o arginare la diffusione dei contenuti di loro proprietà. “Ma molti servizi di aggregazione si sono assunti il diritto di adottare un atteggiamento disinvolto rispetto al copyright”, ricordano da ACAP, sottolineando come il protocollo rappresenti “per gli editori e per i fornitori di contenuti un nuovo modo per istituire un regime di permessi che possano essere compresi dagli aggregatori”.

La palla ora passa ai motori di ricerca: spetterà loro decidere dell’efficacia del protocollo, accettando o rifiutando di ammaestrare i propri bot affinché comprendano le istruzioni fornite dagli autori dei contenuti.

Gaia Bottà

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
30 nov 2007
Link copiato negli appunti