Skip to content

Google veut appliquer l’IA et le machine learning à tous ses produits

Le 17-19 mai a eu lieu la Google I/O, la conférence annuelle des développeurs de l’entreprise. Mercredi, le show a commencé avec un discours du CEO Sundar Pichai qui a réitéré la dernière approche de l’entreprise qui souhaite que l’intelligence artificielle et le machine learning soient à la tête de tous ses produits. Pichar a mis l’accent sur cette focalisation « AI-first », quelque chose qu’il a mentionné lors du I/O l’année dernière. Maintenant, Google a donné au reste du monde un aperçu de la façon dont le machine learning (l’apprentissage automatique) fonctionnera derrière chaque plate-forme qu’il possède.

Bien sûr, il n’y a pas de technologie d’intelligence artificielle et de machine learning capable de fonctionner sans un processeur spécialisé pour les exécuter. C’est pourquoi Google a lancé la deuxième génération de sa puce d’apprentissage machine appelé Cloud TPU (Tenseur des Unités de Traitement). Ces nouvelles unités de traitement seront accessibles à quiconque qui l’utilisera pour exécuter et former des réseaux de neurones artificiels grâce à la plate-forme de cloud computing de Google.

Une grande partie de la recherche de Google sur l’intelligence artificielle est menée par DeepMind, une société de son groupe Alphabet. Mais avec tous les progrès réalisés dans la discipline, Google a encore besoin d’une plate-forme pour rassembler les ressources, y compris la recherche, les outils et l’intelligence artificielle appliquée. Google.ai est précisément, une façon de démocratiser ses recherches sur l’intelligence artificielle.

LIRE AUSSI 🔖  Samsung rend l’« œil numérique » plus rapide à l’aide de la puce imitant le cerveau d’IBM

La reconnaissance de l’image est l’un des premiers à bénéficier du développement du machine learning. Il n’y a pas de pénurie d’algorithmes conçus pour effectuer des tâches de reconnaissance visuelle. Maintenant, Google veut passer à un tout nouveau niveau en apportant son expertise de moteur de recherche à votre appareil photo. Pichai a introduit Google Lens, qui est essentiellement un moyen de rechercher sur Internet en utilisant la caméra de votre smartphone. Vous prenez une photo et Lens vous dit ce que c’est. « C’est un ensemble de capacités informatiques basées sur la vision qui peuvent comprendre ce que vous regardez« , a déclaré Pichai, « et vous aider à prendre des mesures en fonction de cette information« . Il sera disponible initialement dans le cadre de Google Photos – pour récupérer vos anciennes photos pour un ensemble de données – et Google Assistant, qui servira d’outil principal d’interagir avec Lens.

Au fur et à mesure que l’avenir des appareils domestiques intelligents commencent à prendre forme – en grande partie grâce à des appareils comme Amazon Echo – Google ne veut pas se laisser distancer. Ainsi, il a lancé sa deuxième itération de Google Home – ce n’est plus seulement un petit haut-parleur intelligent capable de jouer de la musique. Maintenant, il offre également une assistance proactive, des appels mains libres et des réponses visuelles, entre autres.

LIRE AUSSI 🔖  Les ambitions de Huawei en matière d'IA

En plus d’être un moteur de recherche, Google apporte son pouvoir aux gens à la recherchent d’emplois qui leur conviennent et aide les employeurs à trouver les employés dont ils ont besoin. « 46% des employeurs américains disent qu’ils font face à des pénuries de talents et ont des problèmes pour occuper ces emplois ouverts », a expliqué Pichai. « Bien que les demandeurs d’emploi peuvent chercher des débouchés juste à côté – il y a une grande déconnexion ici. […] Nous voulons mieux relier les employeurs et les demandeurs d’emploi grâce à une nouvelle initiative, Google for Jobs. »

Wired, Google I/O