Eric Schmidt risponde a un’intervista di TechCrunch sul futuro dei motori di ricerca. E concentra il suo pensiero su un’idea centrale: Google e i motori di ricerca devono passare dalla focalizzazione sulle parole alla focalizzazione sul significato.
Insomma. Si passa dalla modalità “database”, con parole chiave e risposte in qualche misura preordinate a una modalità più complessa, nella quale il motore si chiede “che cosa intendi chiedere davvero?”
Si direbbe però che di fronte a questo problema ci siano due strade.
La prima, apparentemente preferita da Google, è quella di conoscere sempre meglio gli utenti, uno per uno, e quindi rispondere alle loro domande in modo sempre più puntuale. Ma questa strada è anche quella che si scontra più frequentemente con i problemi della privacy. Perché se Google conosce sempre meglio gli utenti può vendere – in un certo senso – questa conoscenza anche ad altri, come gli inserzionisti pubblicitari.
La seconda, testimoniata in Italia da ExpertSystem, prevede che le macchine sapranno comprendere sempre meglio le domande che gli umani pongono senza conoscere le persone che le pongono ma imparando a riconoscere sempre meglio il significato delle parole e delle frasi. Dal punto di vista teorico e pratico è una strada molto più complessa. Ma straordinariamente affascinante.
Anche perché è vero che le macchine si adattano alle persone. Ma è anche vero che, persino più spesso, le persone si adattano alle macchine. Imparando a modificare il loro linguaggio per avere un’efficiente interazione con le macchine. Ma impoverendo, in un certo senso, il loro linguaggio.
La strada delle ricerche basate sulla condivisione di conoscenze, ancora indietro in certi luoghi ma già avanzata in Corea per esempio, è forse un percorso più ricco di conseguenze equilibrate sul piano culturale. Le search su Twitter sono un esempio di sviluppo in questo senso piuttosto rilevante. Ma siamo ancora ai primi passi.
Quello che è chiaro è che la conoscenza è sempre più sul web. E i sistemi con i quali si ricerca sul web saranno sempre più centrali nella formazione e nella crescita della qualità della conoscenza accessibile. Il che non può essere appannaggio di poche aziende private quotate in borsa. Ma è una preoccupazione che deve condurre all’azione, non alla lamentazione.
Purtroppo nel web si scontrano le esigenze commerciali delle aziende che ne determinano i destini e quelle degli utenti. Allo stato attuale c’è una gran confusione, centinaia di migliaia di risultati duplicati ed una capacità molto limitata da parte dei motori di restituire risultati soddifacenti. Il tanto atteso web semantico tarda ad arrivare e nel frattempo, come al solito, ciascuno sceglie la sua strada in funzione del proprio business, senza preoccuparsi di trovare una strada comune, condivisa e davvero praticabile.
Spero davvero che in futuro si possa arrivare ad una regolamentazione del web (e non solo) in grado di subordinare le esigenze meramente commerciali al buon senso, alla logica e alla vera efficienza e sostenibilità.
Penso che finché non ci sarà una tecnologia alternativa che effettivamente attiri audience, i big player della ricerca saranno soprattutto concentrati sulla monetizzazione delle query piuttosto che sulla soddisfazione immediata di chi cerca.
Si pensi alla funzione “Ricerca avanzata” disponibile in tutti i motori: in teoria permetterebbe a molti neofiti di calibrare molto meglio le proprie interrogazioni senza dover usare gli accorgimenti per i più esperti (apici, operatori, ecc.). Naturalmente, continuandola a chiamare “avanzata”, le persone si spaventano e non la usano, col risultato di fare svariate richieste in più (aumentando quindi la probabilità di incrociare un inserzionista). Basterebbe chiamarla “Ricerca semplificata”, o no?
Solo per segnalare che mentre scrivo Expert System riporta questo pezzo nella homepage italiana – mentre quella internazionale riporta come prima news l’interessante SemanticWeb.com, e io mi permetto solo di aggiungere al who’s who Paul Miller, The Semantic Web http://blogs.zdnet.com/semantic-web/ ZDNet.com.
Cordialità,
Marco
Anche l’elaborazione della conoscenza già “registrata” in Rete – o se vogliamo un datamining globale ma a portata dell’utente – è una strada che faticosamente viene percorsa (vedi Wolphram Alpha, che ha da poco rilasciato le sue API e stretto un accordo con Microsoft per aggiungere a Bing risultati provenienti da W|A)
Devo dire che è un grossa soddisfazione vedere che anche Google, dopo avere sempre sostenuto a spada tratta che bastano le keyword, inizia a parlare di semantica (anche se, forse non casualmente, “nascondendosi” dietro una parola meno impegnativa come significati): vedremo in che direzione si muoveranno ma si tratta comunque di un cambiamento estremamente significativo.
Come scrivi, oltre a diversi meriti, Google ha anche il grosso demerito di avere “googolizzato” generazioni di utenti dei motori di ricerca, che si sono abituati a scrivere sequenze di keyword senza sintassi e con una notevole povertà di espressività (per esempio, non usando le maiuscole quando normalmente previste): con l’esplosione dei contenuti sul web, per la legge del contrappasso, questo appiattimento verso il basso gli si ritorce contro e limita l’efficacia delle ricerche.
Se questa nuova direzione di Google avrà come risultato la scrittura di ricerche più naturali ed espressive (che sono poi quelle che le persone utilizzano nelle loro interazioni di tutti i giorni con le altre persone), tutti ne beneficeranno e, a tendere, si potranno sicuramente ottenere risultati migliori.
Database
http://chronicle.com/article/Googles-Book-Search-A/48245