BLOG

Image représentant Google MUM

MUM, nouvel algorithme de Google, comprend ce dont vous avez besoin

La compréhension du langage naturel n’a pas toujours été facile, mais grâce à l’investissement continu de Google dans l’IA, elle a atteint un tout nouveau niveau. Lors de la conférence I/O 2021, Google a présenté MUM – Multitask United Model. Selon Google, ce nouveau modèle linguistique est 1000x plus puissant que BERT, sorti en 2019. MUM sera intégré aux produits Google dans un avenir proche.

Qu’est-ce que MUM : Multitask United Model ?

MUM est un modèle de langage construit sur le même système de transformation que BERT, qui a fait des vagues en 2019. BERT est un modèle de langage puissant qui a fait une percée lors de sa sortie. MUM, cependant, fait monter les enchères : selon Google, il est censé être 1000 fois plus puissant que BERT.

Une grande partie de cette puissance provient du fait qu’il peut être multitâche. Il n’est pas obligé d’effectuer une tâche après l’autre, mais il peut gérer plusieurs tâches simultanément. Cela signifie qu’il peut lire un texte, en comprendre le sens, acquérir des connaissances approfondies sur le sujet, utiliser la vidéo et l’audio pour renforcer et enrichir ces connaissances, obtenir des informations dans plus de 75 langues et traduire ces résultats en un contenu multicouche qui répond à des questions complexes. Tout cela en même temps !

Pour découvrir d’autres technologies émergentes, consultez notre guide complet sur le SEO.

Google MUM : quelle puissance au juste ?

Lors de la conférence I/O 2021, Prabhakar Raghavan, de Google, a donné un aperçu de la façon dont cela fonctionnerait. Il a utilisé la requête complexe « J’ai fait une randonnée sur le Mont Adams et je veux maintenant faire une randonnée sur le Mont Fuji à l’automne prochain, que dois-je faire différemment pour me préparer » pour démontrer ce que MUM pourrait faire. Dans une session de recherche normale, vous devriez rechercher vous-même tous les différents aspects. Une fois que vous avez tout, vous devez les combiner pour avoir toutes les réponses aux questions

Or, MUM combinerait les informations provenant de nombreuses sources différentes sur de nombreux aspects de la recherche, qu’il s’agisse de mesurer les montagnes, de suggérer un imperméable parce que c’est la saison des pluies sur le mont Fuji ou d’extraire des informations de sources japonaises. Après tout, il y a beaucoup plus d’écrits sur ce sujet spécifique dans cette langue.

Dans les requêtes complexes de ce type, il s’agit de combiner des entités, des sentiments et des intentions pour comprendre ce que signifie un élément.

Les machines ont du mal à comprendre le langage humain, mais les modèles de langage comme BERT et MUM s’en rapprochent.

MUM va encore plus loin en traitant le langage et en y ajoutant la vidéo et les images, car il est multimodal. Il est ainsi possible de générer un résultat riche qui répond à la requête en présentant un tout nouvel élément de contenu. MUM sera même intégré à Google Lens, de sorte que vous pourrez pointer votre appareil photo sur vos chaussures de randonnée et demander si elles sont adaptées à cette randonnée vers le mont Fuji !

Bien entendu, l’objectif final de tout cela est de vous aider à obtenir plus d’informations avec moins de requêtes de recherche – très probablement dans les limites de Google lui-même.

Nous avons assisté à une augmentation constante des résultats enrichis et des réponses rapides, qui deviennent également plus visuels et plus importants chaque jour. De nombreux autres développements, tant à l’intérieur qu’à l’extérieur de la recherche, dressent le portrait d’un Google qui cherche à fournir lui-même la plupart des réponses à vos questions.

En route vers une recherche visuelle, conversationnelle et entièrement alimentée par l’IA

Google s’oriente discrètement vers un moteur de recherche entièrement alimenté par l’IA. Un moteur de recherche n’est même pas le mot juste ici, car il s’agit plutôt d’une machine de présentation des connaissances. Et cela ne se passe pas dans le vide de la fameuse barre de recherche.

De plus en plus, Google ouvre l’idée de la recherche pour y inclure des données provenant de nombreuses autres sources : microphones, caméras, téléviseurs, vêtements, haut-parleurs intelligents, etc. Pour servir toutes ces cibles différentes d’une manière qui ait du sens sur ces machines, la recherche et sa présentation doivent changer. Le microphone de votre gadget fitness doit entendre et comprendre votre requête, tandis que l’assistant doit en faire quelque chose et répondre par quelque chose d’utile.

La compréhension de la langue est essentielle. Le développement de modèles linguistiques superpuissants, efficaces et flexibles, capables de générer du contenu pour fournir ces réponses de manière succincte et naturelle, deviendra essentiel.

Lors de la conférence I/O 2021, il a été présenté un autre exemple de cela : LaMDA.

LaMDA : Modèle linguistique pour les applications de dialogue

LaMDA (modèle linguistique pour les applications de dialogue) est un autre élément important de la présentation de Google à la conférence I/O 2021. Il s’agit d’une nouvelle technologie permettant de communiquer avec une IA – comme un chatbot – de manière beaucoup plus naturelle. Elle peut converser de manière plus fluide que les IA précédentes, qui suivent souvent un chemin simple de A à B. Les chatbots s’embrouillent facilement lorsque vous changez de sujet, par exemple.

La MDA se propose de remédier à cette situation. Le modèle peut acquérir une grande quantité de connaissances sur un sujet et s’engager dans un dialogue bidirectionnel entièrement formé, même lorsqu’il s’aventure en dehors du sujet initial. Google a montré une démonstration d’un modèle LaMDA entraîné à partir de connaissances sur la planète Pluton pour en discuter avec l’un des chercheurs. Ce n’est pas parfait, mais cela donne une bonne idée du genre de futur auquel nous pouvons nous attendre.

Les questions que cela pose

Tous ces développements soulèvent bien sûr des questions. Par exemple, si Google peut réellement lire, entendre et voir du contenu dans toutes les langues et le reconditionner dans un nouveau format – avec le contexte et le contenu généré par l’IA – qui en est le propriétaire ? Et qui est responsable du contenu de ces résultats automatisés ? Est-ce un autre clou dans le cercueil des producteurs de contenu ?

Et qu’en est-il de la partialité de l’IA ? Les préjugés et l’éthique sont des sujets très importants en matière d’IA, et si nous voulons vraiment progresser vers un avenir alimenté par l’IA, nous devons être assurés de sa neutralité et de sa fiabilité. Bien sûr, Google mentionne spécifiquement le biais de l’IA dans son message et continue à former le modèle. Les chercheurs en IA de Google ont également parlé un peu de KELM : un moyen de déterminer les informations non factuelles et les contenus toxiques dans les textes qui pourraient causer des biais dans les modèles.

Google met MUM au travail

Google teste actuellement le MUM et continuera à le faire jusqu’à ce qu’il se sente en sécurité pour l’ajouter aux systèmes. Il n’y a pas de calendrier précis pour ce faire, mais cela n’a pas pris beaucoup de temps dans le cas de BERT.

L’introduction de MUM pourrait simplement se traduire par de meilleurs résultats de recherche, mais aussi par un nouveau type de résultats de recherche.

Un résultat bricolé à partir de diverses sources, reformaté pour devenir quelque chose de complètement nouveau.

Cela pourrait avoir un impact sur votre façon de concevoir le contenu. Il pourrait être moins important de répondre aux questions du public et de résoudre ses problèmes, car le système s’en charge déjà.

Au lieu de cela, vous feriez mieux de continuer à améliorer votre produit et de vous concentrer sur le développement de la préférence de marque.

Les gens doivent rencontrer votre marque pour s’en souvenir par la suite. Réfléchissez aux moyens de vous démarquer et de transformer ce trafic en clients à vie.

Google mise clairement sur un avenir alimenté par l’IA et nous offre des moyens encore inimaginables de trouver et de consommer du contenu. C’est un avenir où nous devrons faire moins de sale boulot et obtenir plus de plaisir.

Comment se préparer à Google MUM ?

L’algorithme de Google s’améliore sans cesse pour lire et comprendre les textes comme un être humain. Comment se préparer à ce nouveau modèle linguistique et à la direction générale prise par Google ? Tout d’abord, vous pouvez donner aux moteurs de recherche comme Google un meilleur aperçu de votre contenu en ajoutant des données structurées à vos pages. Cela aide Google à comprendre ce qui est quoi sur une page et vous permet de bénéficier de résultats enrichis. Si vous n’avez pas beaucoup d’expérience en matière de codage, des modules SEO comme Yoast SEO peuvent ajouter automatiquement les données structurées nécessaires pour vous.

En outre, vous devez avoir des textes bien écrits, faciles à lire et optimisés de manière naturelle. Ne bourrez pas votre texte avec le même mot-clé pour grimper dans les classements, mais écrivez quelque chose que votre public a envie de lire. Quelque chose de nouveau, d’original, avec une bonne structure.