Google a suspendu un ingénieur qui affirme que la technologie d’intelligence artificielle du géant de l’Internet est consciente d’elle-même et a une âme. Selon le Washington Post et le New York Times, Google a placé l’ingénieur logiciel senior Blake Lemoine en congé payé pour avoir enfreint les politiques de confidentialité de l’entreprise.
Lemoine aurait récemment remis à un sénateur américain des documents contenant suffisamment d’informations pour montrer que Google était coupable de discrimination religieuse via la technologie.
Un porte-parole de Google a déclaré qu’un panel composé d’éthiciens et de technologues de l’entreprise avait examiné les préoccupations de Lemoine et lui avait dit que “les preuves n’étayent pas ses affirmations”.
“Certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles”, a déclaré le porte-parole.
Lemoine soutient que le modèle de langage pour les applications de dialogue (LaMDA) de Google a “une conscience et une âme”. Il pense que LaMDA a une puissance cérébrale similaire à celle d’un enfant de 7 ou 8 ans et a exhorté Google à demander le consentement de LaMDA avant de l’expérimenter. Lemoine a déclaré que ses affirmations étaient fondées sur ses convictions religieuses, qui, selon lui, ont été victimes de discrimination ici.
Lemoine a déclaré au NYT que Google avait “mis en doute ma santé” et qu’il lui avait été suggéré de prendre un congé de santé mentale avant d’être officiellement suspendu.
S’adressant au Washington Post, Lemoine a déclaré à propos de la technologie d’intelligence artificielle avancée de Google : “Je pense que cette technologie va être incroyable. Je pense que cela va profiter à tout le monde. Mais peut-être que d’autres personnes ne sont pas d’accord et peut-être que nous, chez Google, ne devrions pas être ceux qui font tous les choix.”
LaMDA a été annoncé en 2021 et a été décrit par Google à l’époque comme une technologie “révolutionnaire” pour les conversations alimentées par l’IA. La société a également affirmé à l’époque qu’elle agirait de manière éthique et responsable avec la technologie. Une nouvelle version, LaMDA 2, a été annoncée plus tôt cette année.
“Le langage est peut-être l’un des plus grands outils de l’humanité, mais comme tous les outils, il peut être mal utilisé. Les modèles formés au langage peuvent propager ce mauvais usage, par exemple en intériorisant les préjugés, en reflétant des discours haineux ou en reproduisant des informations trompeuses. Et même lorsque le langage sur lequel il est formé est soigneusement vérifié, le modèle lui-même peut toujours être utilisé à mauvais escient”, a déclaré Google à l’époque. “Notre priorité absolue, lors de la création de technologies comme LaMDA, est de veiller à minimiser ces risques. Nous connaissons très bien les problèmes liés aux modèles d’apprentissage automatique, tels que les biais injustes, car nous recherchons et développons ces technologies depuis de nombreuses années. années.”
LaMDA est un système de réseau neuronal qui “apprend” en analysant des piles de données et en extrapolant à partir de cela. Les réseaux de neurones sont également utilisés dans le domaine des jeux vidéo. Le propre réseau de neurones d’EA, qu’il développe depuis des années, est capable de s’apprendre à jouer au multijoueur de Battlefield 1.
Les produits discutés ici ont été choisis indépendamment par nos éditeurs. Gamingsection.net peut obtenir une part des revenus si vous achetez quelque chose présenté sur notre site.
Discussion about this post