DIM26MAR2017
Rubrique Agenda
Accueil > Articles > Actualité > Enquêtes >

Comment fonctionne Google

Comment fonctionne Google

Comment fonctionne Google
Mis en ligne le mardi 28 novembre 2006 ; mis à jour le mardi 4 mars 2008.

Licence: CC By-Nc-Sa

En décembre dernier, 70% des recherches faites par des internautes français ont transité par Google. Le moteur de recherches est devenu un point de passage obligé, voire un synonyme du web en général. Comment fonctionne un index de 8 milliards de pages ? Peut-on piéger le moteur de recherches ? Et la petite société des débuts est-elle en train de devenir une multinationale contrôlant l’information mondiale ? Le Tigre a mis son museau dans les rouages du moteur.
Article publié dans Le Tigre, version hebdo, n°3, 31 mars 2006.

À l’origine était l’annuaire de recherches. Un contenu choisi par des humains, hiérarchisé et éditorialisé, à la manière des habitudes de la presse traditionnelle. Puis vint le moteur de recherches, où la machine prit la place de l’homme : des ordinateurs se mirent à parcourir le web en indexant les pages, qu’ils gardaient en mémoire pour accélérer la recherche. Encore fallait-il trouver une façon de choisir l’ordre des résultats.
Deux étudiants de l’université de Stanford, Larry Page et Sergey Brin, mettent au point, à partir de 1997, un algorithme de recherche particulièrement performant. Ils donnent à ce nouveau moteur le nom de Google, en référence au mot googol, créé par le mathématicien Edward Kasner qui, en 1938, avait demandé à son neveu de lui inventer un mot pour désigner un nombre très grand : le googol correspond à 10100 soit un 1 suivi de 100 zéros. Les fondateurs de Google utilisent une variante de ce mot, avec une astuce supplémentaire : le double oo central est redoublé autant de fois qu’il le faut lorsque les résultats sont nombreux.
Essayez de vous souvenir de la première fois où vous avez utilisé Google, à la fin des années 1990 ou au début des années 2000. Même avec une connexion bas débit, la rapidité était impressionnante. Une interface dépouillée (une seule image : le logo « Google » qui change lors d’occasions spéciales — Noël, le Nouvel An, les J.O., etc.), et une absence totale de publicité. Aujourd’hui, si les grands principes sont restés les mêmes, tout est différent. La société réalise un chiffre d’affaires de 6,4 milliards de dollars par an et elle emploie 3000 salariés. Et si elle fait de confortables bénéfices, c’est bien sûr grâce à la publicité.

Comment classer ?
Google présente ainsi son système d’indexation : « Le meilleur moyen de faciliter l’exploration de votre site consiste à vous assurer que d’autres sites proposent des liens vers vos pages. Lorsqu’ils explorent le web, nos robots utilisent les liens hypertextes pour passer d’une page à une autre : plus le nombre de sites proposant des liens vers vos pages est important, plus nos robots détecteront facilement votre site. » (Notons au passage que les diverses pages de présentation de Google sont toutes assez mal traduites de l’américain : ainsi le titre « Google, à votre service 24x7 ! » au lieu de « 24h/24, 7j/7 »).
Google a créé le concept de PageRank, qui mesure la popularité d’une page sur internet. Même si les principes de calcul sont secrets (il s’agit du cœur de l’activité de la société...), l’on sait que le PageRank est issu de l’algorithme créé par les deux fondateurs pendant leurs études et qui, de ce fait, est public — et disponible sur le site de Stanford.
Le PageRank d’une page web, qui peut être compris entre 0 et 10, se calcule de manière récursive, en fonction du PageRank des pages qui pointent vers cette page. Ainsi, plus des pages à fort PageRank pointent vers une page donnée, plus cette dernière verra son PageRank augmenter — et il augmentera d’autant plus que les liens sortants sont rares sur les pages qui pointent vers elle, ce qui donne plus de valeur au lien.
Les sites qui ont des PageRank à 10 sont les « stars » du web : Google, bien sûr, mais aussi msn (le portail de Microsoft), le gouvernement américain, le programme Adobe Acrobat, etc. Il n’y en avait que 37 lors de la dernière « Google Dance » (mise à jour des index et donc des PageRank par Google, qui a lieu environ toutes les 4 à 12 semaines), en octobre 2005. Ensuite viennent les 128 pages à 9, les 442 pages à 8, etc. Pour donner un ordre d’idées, lemonde.fr ainsi que liberation.fr sont à 8, tandis que le-tigre.net est à 4. Pour obtenir un bon PageRank, un site doit donc essayer d’obtenir un grand nombre de liens pointant vers lui, tout en préférant des liens venant de pages ayant un bon PageRank (chaque page d’un site possède un PageRank propre, donc un site ayant une page d’accueil avec un gros PageRank peut avoir une page de liens avec un petit PageRank, et donc ne pas compter beaucoup...) et qui n’ont pas beaucoup de liens sortants.
Tromper les robots
La majorité des utilisateurs de Google se contentant de la première page de résultats, le référencement de site est devenu une activité à part entière — et il existe aujourd’hui de nombreuses sociétés qui proposent des services permettant d’augmenter son PageRank. Une des manières les plus efficaces de tromper les robots d’indexation est de créer des fausses pages qui renvoient à un site internet, afin de faire monter son PageRank. Mais Google veille pour empêcher ce genre de manipulation. Ainsi la société BMW avait créé une série de fausses pages (dites « pages satellites ») comportant le mot « Neuwagen » (« nouvelle voiture ») et renvoyant à son propre site. Un ingénieur de Google, Matt Cutts, a découvert le pot aux roses et l’a dénoncé sur son blog, le 4 février 2006 : Google a alors décidé de retirer la page bmw.de de son index. BMW a dû faire machine arrière et a supprimé les pages litigieuses. Google a accepté de le réindexer, non sans lui délivrer un brevet de bonne morale : « I appreciate BMW’s quick response on removing JavaScript-redirecting pages from BMW properties. The webspam team at Google has been in contact with BMW, and Google has reincluded bmw.de in our index. » (blog de Matt Cutts)
Sur son site, Google donne une série de conseils et d’interdictions : « Évitez les “astuces” destinées à améliorer le classement de votre site par les moteurs de recherches. Vous devriez en principe pouvoir expliquer en toute sérénité à un site web concurrent les solutions que vous avez adoptées. Vous pouvez également vous poser les questions suivantes : ces solutions sont-elles une aide pour les utilisateurs ? Aurions-nous fait appel à ces techniques si les moteurs de recherches n’existaient pas ? » L’ensemble de ces règles ne repose sur rien de légal (rappelons que Google n’est pas un service public !), mais il en va de la crédibilité du moteur de recherches que la majorité des sites les respectent. C’est pourquoi certains employés de la société ont justement pour rôle de déjouer les tricheries.
Il existe une autre façon de tromper Google, cette fois à des fins de militance ou de simple plaisanterie : c’est le « Google bombing ». Faire du bombardement sur Google, c’est créer un maximum de liens entre deux termes afin que le moteur de recherches propose comme premier lien une réponse inattendue. Le résultat est encore plus notable pour les gens qui utilisent la fonction « J’ai de la chance » de Google (ou qui tapent leur recherche directement dans la ligne pour les adresses dans Firefox, ce qui revient au même) puisqu’au lieu d’arriver sur ce qu’ils souhaitaient, ils sont détournés vers la page choisie par les « bombers ». L’exemple le plus célèbre est certainement celui qui a vu associer l’expression « miserable failure » (« échec lamentable ») à la page biographique de Georges Bush sur le site de la Maison Blanche, et ce au moment de la guerre en Irak.
En France, c’est Nicolas Sarkozy qui a fait les frais d’un subtil Google bombing : après que l’UMP avait pratiqué, à l’automne 2005, une forme de spamming (envoi de mails non désirés), des responsables de sites et de blogs ont mis sur pied un système de Google bombing entre le site du film Iznogoud et le nom du ministre de l’Intérieur. Le système, très simple, consistait à créer des liens sur leurs pages qui indiquaient que la page intitulée « Nicolas Sarkozy » se trouvait à l’adresse iznogoud-lefilm.com, et, à l’inverse, que la page intitulée « Iznogoud » se trouvait à l’adresse correspondant à la biographie du ministre sur le site du gouvernement. Pourquoi Iznogoud ? Tout simplement parce qu’il rêve de devenir calife à la place du calife... Le message est vite passé, et rapidement la recherche Google « Nicolas Sarkozy » a proposé le site du film Iznogoud mais... en 2e position seulement, ce qui affaiblit la valeur de l’exploit (d’autant que la première réponse est un blog farouchement pro-Sarkozy). Puisqu’il n’y a pas eu de « Google Dance » depuis cette date, la situation en est exactement au même point aujourd’hui.
Les liens commerciaux
C’est dans le domaine de la publicité que la bataille autour des mots-clés a pris une place prépondérante. En effet, Google, après être devenu le premier moteur de recherches en 2001, a décidé d’ouvrir ses pages à la publicité : une publicité discrète, uniquement sous forme de liens textes situés sur une colonne à droite de l’écran. La publicité est basée sur le système Adwords, une forme de bourse de mots. L’annonceur choisit un ou plusieurs mots-clés qui généreront l’affichage de son annonce. Et il ne paie qu’à chaque clic réalisé par un internaute. Comme il ne peut y avoir plus de huit publicités pour un seul mot-clé, Google a mis en place un système d’enchères pour les mots les plus demandés.
Drôle de revanche pour les mots, qui prennent une valeur commerciale. Un artiste contemporain, Christophe Bruno, s’est ainsi amusé, en 2002, à acheter des mots-clés, et, en lieu et place d’un message publicitaire, à proposer des petits poèmes absurdes. « Mary », « dream » ou « money » renvoyaient vers son site, avec des phrases comme « Aargh !! Are you mad ? Oops ! ». En l’espace de 24 heures, 12000 requêtes avec ces mots-clés ont été effectuées — mais seuls 65 internautes avaient suivi son lien, ce qui a immédiatement déclenché les foudres du robot gérant le programme de Google : « Hello. I am the automated performance monitor for Google AdWords Select. My job is to keep average clickthrough rates at a high level, so that users can consistently count on AdWords ads to help them find products and services. The last 1,000 ad impressions I served to your campaign(s) received fewer than five clicks. When I see results like this, I significantly reduce the rate at which I show the ads so you can make changes to improve performance. » Ses publicités ont ensuite été supprimées. Comme le note Christophe Bruno, « nous avons désormais atteint un stade où chaque mot de chaque langue possède un prix qui fluctue suivant les lois du marché ». Ainsi, en avril 2002, le mot « sex » valait 3837 dollars, « art » 410 dollars, et le plus cher était... « free », qui valait 7569 dollars par jour — un coût estimé en fonction des recherches moyennes sur le mot en question.
La guerre PS-UMP
L’achat de mots peut également prendre un aspect polémique. Ainsi l’Enchanteur des Nouveaux médias, une société de communication qui travaille pour l’UMP, achète des Adwords en fonction de l’actualité : en novembre 2005, le mot « racaille » renvoyait à un lien publicitaire pour l’UMP. Récemment, l’UMP a acheté une série de noms de dirigeants... du PS. Tapez « Ségolène Royal » dans Google, et vous verrez s’afficher, dans la colonne de droite (en-dessous d’un lien pour « Royal Finance ») « Exprimez vos idées. N. Sarkozy vous propose de débattre du projet pour la France en 2007. www.u-m-p.org ». Le PS a réagi contre cette forme de « détournement de marque » en demandant à ses militants de cliquer le plus possible sur le lien en question, afin d’augmenter la facture pour l’UMP — puisque chaque clic est facturé. Le bilan final de l’opération apparaît limité (l’UMP ayant vite modifié ses options de paiement), et le PS a été, à son tour, critiqué pour cette forme d’attaque déguisée. Mais cela a permis, comme le note Vincent Feltesse, secrétaire aux Nouvelles technologies du PS, dans une interview à Libération, « de porter le débat sur la nécessité de réglementer un jour ce nouveau terrain de jeu politique qu’est l’internet ».
Car depuis quelques années, le cybersquatting (le fait d’utiliser l’adresse d’une marque dont on n’a pas la propriété) s’est étendu aux Adwords. Des sociétés achètent en effet des mots-clés qui sont tout simplement le nom de leur concurrent : or s’il s’agit de marques déposées, il y a bien violation de la loi. C’est ainsi qu’Axa Assurances, les hôtels Méridien ou Louis Vuitton ont attaqué Google et ont gagné : les marques qui « parasitaient » ces mots-clés en les payant ont dû suspendre leurs publicités. C’est un tout nouveau terrain juridique qui est en train d’être défriché : avocats d’un côté et commerciaux de l’autre fourbissent armes et arguments sans relâche, car l’avenir est à la publicité ciblée.
Le mirage de l’indexation totale
Si ce n’est pas sur Google, ça n’existe pas. Ce poncif est devenu un piège dans lequel tombent beaucoup de ceux qui font des recherches sur internet. Piège parce que, faut-il le rappeler ? internet est très faiblement pourvu par rapport à l’immensité du savoir mondial — avec un déséquilibre énorme selon les domaines, l’informatique étant bien sûr la mieux représentée. Si vous cherchez le code html des couleurs pour construire votre site internet, vous trouverez en moins d’une seconde une dizaine de liens utiles. Mais prenons l’exemple d’une recherche sur le procès de Riom (procès des ministres du Front Populaire sous Vichy) : en faisant la recherche « «proces de Riom»-OGM » (cette dernière mention servant à enlever toutes les pages contenant le terme « OGM » — un procès de militants écologistes qui ont fauché des OGM ayant également eu lieu à Riom), on obtient 924 pages, dont la plupart ne sont que de simples mentions du procès et n’apportent quasiment aucune information.
Certes, on connaîtra les cotes du fonds Daladier (496AP/36) ou du fonds Blum aux Archives nationales concernant le procès, et l’on découvrira que les Archives de Sciences-Po disposent des comptes-rendus du procès établis par Roger Genebrier, un proche de Daladier, et l’on pensera à lire le chapitre « Le procès de Riom : instrumentalisation et renversement de la justice » du livre Justice, politique et République paru chez Complexe en 2004. Mais en texte pur, on ne trouvera guère qu’un extrait de discours prononcé par Léon Blum lors du procès (sur le site du Parti socialiste). Google ne sert ici que de simple parcours bibliographique, certes ultra rapide, mais qui n’est que la première étape d’une bonne vieille recherche en bibliothèque, où livres, thèses et archives permettront de savoir précisément ce qui s’est passé à Riom en 1942. De nombreux enseignants mettent dorénavant en garde les étudiants : tout ne se trouve pas sur internet, loin s’en faut.
Le web invisible
En outre, parmi les documents disponibles sur le web, Google n’en référence qu’entre 3% et 10%. Ceci pour de multiples raisons : les fichiers peuvent être trop lourds, protégés volontairement, ou bien accessibles par d’autres protocoles qu’une simple recherche internet. Il s’agit ici des documents auxquels l’utilisateur a accès en utilisant un moteur interne qui fouille au sein d’une base de données. Exemple : les répertoires de bibliothèques, les archives des journaux, etc. Une étude menée en 2000 par BrightPlanet a montré que le « deep web » (« web profond », ou plutôt « web invisible ») était 200 fois plus important que le web visible, tout en étant pourtant non protégé, à 95%, par des mots de passe. C’est donc bien un défaut d’indexation qui fait que cette partie du web reste invisible. Encore plus étonnant : selon cette étude, les 60 sites les plus importants représentent à eux seuls plus de 40 fois le volume du web visible. Ce sont des sites scientifiques (NASA), des bases de données (Lexis Nexis), des sites universitaires (Berkeley), de médias et presse (USAToday), de commerce en ligne (e-bay), des sites internes de grosses sociétés (UPS, Fedex).
Indexer les livres
C’est pour accroître l’immensité de ses bases que Google a également décidé de développer un nouveau service : Google Books, anciennement appelé Google Print, qui a rapidement généré une intense levée de boucliers. Google souhaitait numériser, rapidement, 15 millions de livres (soit 4,5 milliards de pages !). Un des principes de Google, depuis ses débuts, est de lancer un projet sans s’embarrasser d’aucune considération, et de voir ensuite comment l’adapter économiquement (quelles sont les sources de profit possible ?) et juridiquement. Cette façon de faire avait déjà posé des problèmes pour le service Google News.
 Google Books a généré quant à lui l’opposition de plusieurs éditeurs américains qui ont refusé toute forme de numérisation sans leur accord préalable. Des procès sont en cours, et Google a dû modifier son projet, afin de le transformer en un système de recherche — non pas de consultation des livres.
La version française de la FAQ (Foire aux questions) confine presque au ridicule dans sa façon de marteler ce message. Point 4 : « Notez toutefois que le service Recherche Google Livres a été conçu pour vous aider à découvrir des livres, et non pour vous permettre de les lire entièrement. » Point 5 : « N’oubliez pas que le but du service Recherche Google Livres est de vous permettre de retrouver et de découvrir des livres. Il est donc possible que vous ne puissiez pas afficher toutes les pages auxquelles vous souhaitez accéder. » Point 6 : « Dans le cadre de notre politique de protection des droits d’auteur, nous définissons pour chaque livre un ensemble de pages qui ne seront jamais présentées à l’utilisateur. » Point 7 : « Le service Recherche Google Livres vous aide à découvrir des livres, pas à les lire en ligne. »
En France, Jean-Noël Jeanneney, président de la Bibliothèque nationale de France, est rapidement monté au créneau en insistant sur le fait que l’Europe devrait pousser à la numérisation de ses fonds : « Nous ne pensons pas qu’il soit prudent de laisser une entreprise organiser seule l’information, la connaissance et la culture de la planète, avec un service comme Google Print » (vnunet.fr). Gallica, le service de la BNF chargé de cette mission, a déjà numérisé 80000 ouvrages — et ne dispose que de 1 million d’euros par an pour mener sa mission à bien, là où Google serait prêt à investir 20 millions d’euros par an. Jean-Noël Jeanneney plaide donc avec insistance, de colloques en interventions, pour que les pouvoirs publics se saisissent du problème.
La démocratie ?
Dans une présentation pour les analystes financiers destinée à redresser la barre après des déclarations qui avaient fait plonger l’action de sa société, début 2006, Eric Schmidt, le patron de Google, déclarait : « Si vous n’avez pas lu le livre de James Surowiecki, Wisdom of Crowds, je vous en recommande vivement la lecture. La Sagesse des foules raconte l’histoire d’une expérience réalisée au XIXe siècle par un anthropologue britannique, Francis Galton. Après s’être rendu dans une zone de campagne, il réunit quelque 800 personnes et leur demanda de deviner le poids d’une vache et d’écrire le résultat sur un bout de papier. On trouvait parmi ces 800 personnes des gens ordinaires, ainsi que des « experts » en la matière : des bouchers, des fermiers ou d’autres personnes bien placées pour se faire une idée précise du poids réel d’une vache. Or la chose remarquable de cette expérience, c’est que lorsque Francis Galton dépouilla les résultats, la moyenne collective des participants s’avéra bien meilleure que la valeur donnée par chacun(e) au sein du groupe, et ce de façon significative. Cela porte à réflexion : la foule s’est montrée plus judicieuse que l’individu, experts compris. » (traduction : adscriptum.blogspot.com) C’est ce principe qui est à la base de tout le système Google.
Ces références à la démocratie peuvent pourtant faire sourire, puisque Google vient de censurer son moteur de recherches en Chine. Une recherche réalisée par des journalistes de Libération (15 février 2006) avec le mot-clé « Tiananmen » sur Google Images donne, sur la version française du moteur, « les photos des gigantesques manifestations lors du mouvement prodémocratique de la place Tiananmen en juin 1989 et [...] l’image omniprésente du jeune bravant une colonne de chars », tandis que sur la version chinoise, on obtient « une avalanche de cartes postales publiées par le Quotidien du Peuple montrant la place et le portrait de Mao sous son meilleur jour : fleurs, ciel bleu ou feux d’artifice. » Le moteur est donc bridé sur un certain nombre de mots-clés, or comme il est impossible, pour un Chinois, de se connecter sur le Google américain ou français, c’est bien un internet censuré que Google participe à créer.
C’est ainsi que la crainte d’un Big Brother numérique se développe : alors qu’hier c’était surtout Bill Gates et Microsoft qui étaient montrés du doigt, aujourd’hui Google suscite de plus en plus d’inquiétudes. Le service de courrier électronique de Google, Gmail, scanne les messages reçus par l’utilisateur pour proposer des publicités liées à ces mots ; demain, si Google met en place le service Gdrive (un espace de stockage en ligne), il sera financé par le même procédé. Certes ce sont des robots qui lisent vos messages, mais si, au lieu de chercher le mot « Madonna » pour proposer un lien vers le dernier album de la chanteuse, ils traquaient des mots plus compromettants, qu’en serait-il des libertés individuelles ? La toute-puissance de Google et de la multitude de services liés (tous gratuits, et donc particulièrement attractifs) pourra alors se retourner contre ses très nombreux utilisateurs.
Deux couvertures de Wired, le magazine américain spécialisé en nouvelles technologies, montrent le chemin parcouru ces dernières années par le moteur de recherches. En 2004, les fondateurs de la société étaient en couverture sous le titre « Googlemania » ; en décembre 2005, la couverture pose cette fois la question : « Who’s afraid of Google ? ». Et donne la réponse : « Everyone ».
L’avenir
Les technologies utilisées sur internet évoluent à des rythmes fulgurants. Google est prédominant aujourd’hui — son système de classement a fait ses preuves. Mais demain un autre algorithme, plus puissant, plus malin, peut tout renverser. Le projet Quaero (« je cherche » en latin), bénéficiant du soutien de la France et de l’Allemagne, et qui va officiellement être lancé en 2006, peut proposer une alternative intéressante. Mais c’est surtout du côté communautaire d’internet que pourrait venir la nouveauté : les « tags » (« étiquettes ») que donnent les visiteurs à des sites, images, liens, etc., sont en train de révolutionner le classement des données sur le web ; Flickr, une immense base de données de photos que les internautes partagent publiquement, propose déjà, avec ses mots-clés affinés par chaque visiteur, une palette à la fois immense et très précise d’images variées. L’interactivité est le maître-mot de ce qu’on appelle dorénavant le « web 2.0 », où l’utilisateur devient lui-même un acteur du référencement. Google, qui n’offre aucun moyen aux visiteurs de modifier l’indexation des pages, est peut-être déjà le moteur du passé.

Google News et les journaux

Google News est un portail d’actualités qui agglomère des informations venant de multiples sites. « L’originalité de Google Actualités, explique la société, tient à ce que nos résultats sont compilés uniquement à l’aide d’algorithmes informatiques, sans intervention humaine. De ce fait, les sources d’information sont sélectionnées sans aucun parti pris politique ni idéologique, ce qui vous permet de voir comment différentes sources traitent un même sujet. Cette diversité de points de vue et d’approches est unique si l’on considère l’ensemble des sites d’information en ligne, et nous considérons qu’il est essentiel de vous aider à rester informé sur les sujets qui vous importent le plus. » Google considère qu’il offre un service win-win (gagant-gagnant) aux éditeurs des sites de presse, puisqu’il leur apporte du trafic. Mais plusieurs journaux ont fait savoir leur désaccord : cela a été d’abord le cas du Monde en 2004 (il faut dire que Google conservait, en cache, des articles du journal passés en archives payantes...), qui est ensuite revenu sur sa position, après un accord trouvé avec la participation du Geste (Groupement des éditeurs de services en ligne), qui supervise la question des droits d’auteurs. Selon Le Journal du net, 10% du trafic de lemonde.fr provient de Google News, et selon Johan Hufnagel dans Le Nouvel Économiste, ce taux est compris entre 13% et 20% selon les jours sur liberation.fr. A contrario, 65% des internautes ne vont pas plus loin que la page de Google News, qui capte donc un trafic avec un contenu qu’il n’a pas créé lui-même. En mars 2005, L’AFP a intenté une action en justice contre Google, aux États-Unis, en demandant 14,5 millions d’euros de dommages et intérêts pour l’utilisation abusive du contenu rédactionnel, accessible habituellement par abonnement — et qu’elle revend à des portails comme Yahoo ou lemonde.fr. Google a décidé de retirer tous les contenus provenant de l’AFP, mais cette dernière n’a pas retiré sa plainte, qui est en cours d’instruction. Il faut noter au passage que la page d’accueil de Google News ne comporte aucune publicité, à la différence de celles des journaux ; or la publicité est la principale source de revenus des journaux en ligne...

Tout ce que Google vous permet de faire
- Calculer : entrez une opération dans la ligne de recherche, tapez sur entrée, vous avez le résultat.
- Voir la Terre depuis l’espace : avec maps.google.com vous pouvez visualiser des photos satellites et cartes du monde entier (la France est encore peu représentée). Ce service s’étend aussi à la Lune (moon.google.com) et à Mars (google.com/mars).
- Faire un combat de notoriété : le « Googlefight » (www.googlefight.com) permet de savoir, entre deux mots, lequel est le plus « célèbre ». Villepin (avec 12,4 millions de pages) dépasse Sarkozy (8,9 millions).
- Consulter les cours des bourses du monde entier (finance.google.com).
- Recevoir des mails sans limite de poids : Gmail, le service de courrier de Google, permet de conserver 2 Go de données.
- Accélérer le temps de téléchargement des sites en utilisant la fonction « cache » du moteur, avec webaccelerator.google.com.
- Créer un site web directement en ligne avec WebPageCreator.
- Créer et administrer un blog avec Blogger.
- Chercher un fichier musical (mp3 ou autre) contenant le mot « Mozart » en utilisant le code suivant : ?intitle :index.of ? -inurl :htm -inurl :html intitle :"index of" "Last modified" mozart -filetype :html -filetype :htm -filetype :php -filetype :asp -posts -filetype :doc -wiki -lyrics -filetype :pdf -ringtone m4a|mp3|wma.
- Chercher une image liée d’une manière ou d’une autre à un mot-clé (images.google.com).
- Chercher un moyen de transport public pour se rendre d’un point à l’autre (version test limitée à la ville de Portland), ou un taxi avec géolocalisation (version test limitée à quelques villes américaines) : labs.google.com.
- Utiliser un traitement de texte décentralisé, qui permet de travailler en collaboration avec d’autres utilisateurs (ainsi Writely, qui vient d’être racheté par Google).
- Bientôt, peut-être, posséder un disque dur décentralisé illimité (projet Gdrive), un calendrier partagé (projet Calendar).
- Pour le moment, Google ne fait pas le café et ne passe pas l’aspirateur.

Accueil | Plan | Contacts | RSS | Mailing-list | Ce site