Il guru degli algoritmi di Google si concede

Amit Singhal non può rivelare i segreti del mestiere ma racconta qualche aneddoto su come lavora il team del search del gigante di Mountain View

Mountain View – C’è voluto del tempo ma alla fine Amit Shingal, il “guru degli algoritmi” di casa Google, si è lasciato intervistare dal New York Times , che ne ha tirato fuori un articolo di un certo interesse per chi vuole sapere cosa bolle al Googleplex . Già, perché la sofisticata macchina di Google sforna servizi e novità a ripetizione: non sorprende che il team di sviluppatori e ingegneri che collaborano con Singhal implementino ogni settimana circa mezza dozzina di piccole correzioni alle funzionalità di search.

“La ricerca negli ultimi anni si è spostata dal dammi cosa scrivo al dammi cosa voglio “, spiega Singhal. Una sfida che ormai ha a che fare con decine di miliardi pagine web indicizzare, centinaia di milioni di query quotidiane e un sevizio complessivo declinato in 112 lingue. “Le aspettative sono alte adesso”, sottolinea Udi Manber, responsabile del search-quality group di Google. “All’inizio individuare quello che si cercava era considerato un miracolo. Adesso se non si trova nei primi tre risultati, vuol dire che c’è qualcosa di sbagliato”.

Secondo Manber ormai si tratta di una questione di bilanciamento degli interventi: un cambiamento può insomma migliorare una cosa e peggiorarne un’altra. Il tutto comunque viene registrato sul “Buganizer”, il sistema utilizzato internamente per i report sugli eventuali problemi. “Qualcuno segnala una query che non funziona a Amit, e lui ne fa tesoro cercando di immaginarsi come risolvere la cosa algoritmicamente”, ha dichiarato Matt Cutts , collaboratore di Singhal, blogger e guru SEO in Google.

Un esempio di queste correzioni? Durante le ultime elezioni francesi la locuzione French Revolution ha prodotto più risultati sul confronto Royal-Sarkozy che sulla fine della Monarchia. Un piccolo intervento ha permesso di valorizzare le pagine web che indicavano esattamente la frase “French Revolution”, invece di quelle che mostravano solo le due parole – in ordine sparso magari.

Si tratta certamente di una piccola operazione – che gli utenti possono affrontare anche solo con indici booleani specifici – ma anche in questo caso Singhal ha avviato il suo Debug , software di debugging per valutare query e pagine correlate. “È anche vero però che non si può reagire alla prima segnalazione. Hai bisogno che le cose cuocciano a fuoco lento”, aggiunge il “Google Fellow”.

Lo scorso anno, ad esempio, uno dei problemi più urgenti ha riguardato la questione dei risultati “freschi”, ovvero correlati alle pagine web appena create o recentemente aggiornate. Il problema di fondo si poteva sintetizzare semplicemente in: meglio fornire le nuove informazioni o le pagine che nel tempo si sono distinte per qualità? Fino a quel momento Google aveva preferito la seconda opzione, approfittando anche del conseguente linking. Singhal, però, ha deciso di cambiare strategia, soprattutto considerando l’avvento di nuovi servizi che si avvantaggiano dell’ aggiornamento in tempo reale , come ad esempio Google Finance.

All’inizio di questa primavera il team al completo si è riunito. Singhal ha spiegato che la semplice variazione delle formule – per aumentare il numero delle pagine web nuove – avrebbe abbassato la qualità complessiva dei risultati. L’unica soluzione, a suo parere, era adottare un nuovo modello matematico che cercasse di prevedere le esigenze degli utenti . Il QDF (Query deserves freshness) è stato quindi messo sotto attento studio. Il nodo è stato determinare quanto e quando un argomento è “caldo”: incrociando i dati provenienti dal numero delle query correlate ad un certo tema e le nuove pubblicazioni (o aggiornamenti) inerenti, è possibile aggiungere un elemento in più di determinazione del ranking.

Sighal ha ammesso di aver iniziato a testare il QDF in piccole applicazioni: tipo decidere quando e se includere pochi titoli giornalistici accanto ai normali risultati quando qualcuno effettua ricerche su temi gettonati.

Di fatto si tratta di un’ulteriore piccola implementazione che fra qualche mese potrebbe nascondersi dietro qualcosa di più importante. Il lavoro di Singhal, dal 2000, è stato proprio quello di arricchire il sistema di page ranking con almeno 200 altri tipi di informazione – detti “signals”. Questi comprendono elementi presenti sulle pagine web (parole, link, immagini etc.), negli storici, nei data pattern etc.

Chi utilizza i servizi di Google, come ad esempio Gmail, dispone infatti di un’arma ancora più efficiente, perché il suo storico personale online influenza i risultati delle proprie ricerche. “Le persone pensano ancora che Google è lo standard di riferimento della ricerca”, ha aggiunto Battelle: “In verità il suo segreto è nel come riesce a far lavorare insieme i suoi ragazzi”.

Dario d’Elia

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • Kirisuto scrive:
    Finalmente la giusta risposta da AMD
    Visto che per il momento non riesce a riprendersi il primato delle prestazioni, gioca le sue carte su prezzi e consumi.Ottima mossa, c'è una larga parte di mercato che l'apprezzerà, utenti aziendali, chi vuole un home theatre non rumoroso e anche chi semplicemente vuole risparmiare energia.AMD comunque su risparmio energetico e prezzi era già sulla buona strada per tutti i suoi prodotti attuali tranne i modelli di punta.
  • Fabio S scrive:
    Non sembra competitivo
    http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3003&p=9Senza fare la gara "qua c'è scritto così e lì me l'ha detto mio cugggino" stando a questi test i nuovi processori a basso consumo non brillano nè in economia e nemmeno in prestazioni rispetto alla concorrenza. Dove sta la verità? Chi lo sa...
  • asdfg scrive:
    OTTIMI
    Consumano poco più di un E4300 e vanno poco meno.Direi OTTIMI
    • qwerty scrive:
      Re: OTTIMI
      Cosnuma meno, dal momento che Intel misura TDP in situazione non replicabile dall'utente mentre AMD è un TDP reale, a cui devi aggiungere il memory controller che nell'AMD è integrato nella CPU ...In alcune applicazioni è davati all'E4300 in altre no, direi che sono mediamente alla pari...costa il 20% meno... Su hardware Upgrade c'è tutta una prova che ti puoi leggere.. ma dubnito che a te interessino i fatti.. altrimenti ti saresti informato prima di scrivere....
    • prss scrive:
      Re: OTTIMI
      Ragazzi, ma come mai la corsa al rialzo delle frequenze si è fermata da tempo? Perchè non vengono fuori processori a 5 o 6 GHz??
    • Roberto scrive:
      Re: OTTIMI
      La corsa alle frequenze doveva per forza smorzarsi, sotto i 90nm non puoi andare a frequenze così alte.Adesso si fa la corsa ai core. Speriamo le CPU non diventino nuovamente delle dimensioni di un Pentium Pro.Anche se ormai sarebbe possibile fare un intero sistema on-chip e sulla motherboard ci restano giusto i connettori e i componenti elettrici.Non vedo l'ora di mettermi in casa uno di questi sistemi CPU+GPU ATI integrata che ha annunciato AMD e che si spera completi consumino quanto una lampadina.
    • pinco scrive:
      Re: OTTIMI
      Usi lampadine da 1000 Watt ????!!!! :D :D :D :D :D :D :DPs. Orrido il nuovo forum...
Chiudi i commenti