Chi cerca…trova?

Che Internet sia diventata una fonte inesauribile di informazioni è ormai un fatto dimostrato da cifre inoppugnabili: oltre tre milioni di Web server attivi con un numero medio di 290 pagine ciascuno, per un totale di circa 6 terabyte (seimila miliardi di byte) di dati e 3 terabyte di immagini. In crescita. Ormai, trovare le informazioni che interessano in questo mare di bit senza l’ausilio di una guida è quasi impossibile. Per questo ci sono i cosiddetti motori di ricerca, che aiutano l’utente a non perdersi nel Web. Ma quanto ci si può fidare di questi super archivi? Steve Lawrence e Lee Giles della Nec Research di Princeton hanno analizzato le prestazioni di 11 tra i più famosi motori di ricerca del Web (in ordine rigorosamente alfabetico: AltaVista, EuroSeek, Excite, Google, HotBot, Infoseek, Lycos, Microsoft, Northen Light, Snap e Yahoo) e hanno pubblicato il loro lavoro sull’ultimo numero di Nature. Con risultati poco confortanti. Tabelle e grafici alla mano, Lawrence e Giles dimostrano che la catalogazione delle pagine avviene in modo arbitrario, che nuove pagine web possono risultare non reperibili per mesi, con un tempo medio per la visibilità di nuovi documenti di circa 186 giorni, e che comunque nessun motore di ricerca contiene nel suo database più del 16 per cento del materiale disponibile sull’intero Web.

I motori di ricerca, in inglese “search engines”, sono servizi offerti gratuitamente ma finanziati, per la loro rilevanza e visibilità sulla rete, dalle grandi industrie del settore. In pratica, indicizzano il maggior numero possibile di pagine Web servendosi quasi sempre di programmi, detti crawler o spider, che esplorano costantemente la rete e inviano alla casa-madre gli indirizzi delle pagine e le informazioni sul loro contenuto. Quando un utente inserisce una parola chiave relativa all’argomento che lo interessa, il motore effettua una scansione del proprio database e restituisce le Url, cioè gli indirizzi Internet, delle pagine che presentano corrispondenze significative con tale richiesta.

Tuttavia, il fatto che i motori di ricerca soffrissero di una scarsa efficienza cronica era noto già prima dell’articolo di Nature, come probabilmente potrebbe confermare chiunque li abbia usati. Che invece essi non fossero in grado di mantenere la promessa di “uguaglianza” del Web nell’accessibilità all’informazione suona invece nuovo e un po’ preoccupante. Infatti Lawrence e Giles hanno notato che in tutti i motori testati, le pagine Web che hanno un maggior numero di link (cioè di collegamenti ad altri siti) hanno elevate possibilità di essere rivelate, mentre quelle con pochi collegamenti hanno una bassa probabilità di essere visibili.

A questa difficoltà si aggiunge una tendenza più recente dei search engine, che per aiutare i principianti a orientarsi sulla rete sfruttano la popolarità di una pagina Web per assegnarle un maggior grado di rilevanza nelle ricerche. Il caso per eccellenza di questo uso forzato è quello di Google, che comprende un pulsante di comando sulla propria Web page chiamato “I’m feeling lucky” – mi sento fortunato – in grado di collegare direttamente l’utente con la prima risposta ottenuta dal suo quesito. E’ evidente che lo sforzo dei motori di ricerca, anche attraverso i suggerimenti e le informazioni correlate, sia di anticipare le richieste degli utenti, nel tentativo di annoiarli il meno possibile con indagini infruttuose. Ma è anche chiaro come tale atteggiamento porti a una possibile oscurità dei siti, spesso proprio i più nuovi, che non sappiano imporsi in questa logica comunicativa (e anche di mercato).

Infine, bisogna sommare a tutto ciò l’altra tendenza dei motori di ricerca. Quella di trasformarsi in Web portal, cioè in un unico grande contenitore di informazioni e di servizi in cui “intrappolare” l’utente fornendogli un unico approdo finale in cui trovare tutto ciò di cui ha bisogno. Si può insomma immaginare che il rischio di “oscuramento” per moltissime pagine Web, paventato da Nature, sia reale. Cosa si può fare in futuro per migliorare i sistemi di ricerca dei dati nella rete?

Una soluzione possibile – adottata in parte già nel nuovo browser Internet Explorer 5 – è quella di aggiungere nei motori di ricerca opzioni personalizzate per le proprie richieste, per esempio la possibilità di salvare quelle svolte precedentemente, in modo da verificare nelle richieste successive solo gli eventuali aggiornamenti. Ma soprattutto bisogna sperare che la velocità nel reperire informazioni e la semplicità e la chiarezza dei risultati non vadano a scapito della quantità e della qualità delle fonti.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here