Une équipe de scientifiques ont inventé quelque chose qui donne froid dans le dos : un décodeur qui, en mobilisant l’imagerie cérébrale et l’intelligence artificielle, arrive à traduire en langage la pensée d’une personne sans qu’elle s’exprime, selon une étude publiée dans la revue Nature Neurosciences. L’objectif affiché de ce décodeur de langage est d’aider des patients ayant perdu l’usage de la parole à communiquer leurs pensées via un ordinateur. Bien qu’à vocation médicale, ce nouveau dispositif soulève toutefois des questions sur l’atteinte à la vie privée mentale, concèdent les auteurs de l’étude. Des questions mais aussi des inquiétudes légitimes quant à un détournement potentiel de son usage à des fins peu catholiques puisque ce décodeur dit « sémantique » a été capable de déchiffrer ce qu’ils pensaient et même ce qui leur passait par la tête en regardant un film du cinéma muet. Imaginez l’intérêt inestimable que ce décodeur de la pensée peut représenter pour les régimes despotiques comme ceux en place en Iran, en Corée du Nord ou en Russie. Grâce à cette découverte qui repose sur le pouvoir GPT, les dictateurs de la planète sont en mesure de lire dans les idées des gens. Les scénarios sont cauchemardesques. Après la mise sous surveillance de la société à la Big Brother devenu aujourd’hui réalité au nom de l’impératif sécuritaire, le décryptage de l’intention humaine est sur la bonne voie. Même les États dits démocratiques peuvent être tentés d’y recourir en le justifiant par la nécessité de déjouer des actes terroristes en lisant avant le passage à l’acte dans les pensées des suspects… Le monde qui se dessine sous nos yeux n’a rien de rassurant pour les êtres humains.
La Boîte de Pandore est ouverte et des choses effroyables en sortent les unes après les autres. Pris de remords, un cerveau de l’intelligence artificielle (IA), le Canado-Britannique Geoffrey Hinton, a annoncé mardi 2 mai sur le New York Times sa démission de Google pour alerter sur les menaces potentielles de l’IA. Sur les colonnes du quotidien américain, le scientifique avoue sans détours qu’une « part de lui-même regrette l’œuvre de sa vie ». « Je me console avec l’excuse habituelle : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait », tente de se consoler celui qui estime que « les futures versions de cette innovation pourraient être un risque pour l’humanité ». Selon Geoffrey Hinton, si les intelligences artificielles ne sont « pour le moment » pas plus intelligentes que l’Homme, « elles pourraient bientôt l’être ». Interrogé par la BBC, à l’annonce de son départ, le détenteur du prix Turing a jugé la perspective d’avenir des chatbots « assez effrayante », avertissant qu’ils pourraient être exploités par de « mauvais acteurs », comme des « dirigeants voulant manipuler leur électorat ». Auprès de la chaîne publique britannique, Geoffrey Hinton a également exprimé sa crainte que « les gens normaux ne puissent plus distinguer le vrai du faux » à long terme. On est y est déjà face au flot ininterrompu des fake news et des manipulations de toutes sortes. En quelques mois, la dynamique de l’IA dite « générative », conduite par ChatGPT (texte) et par Midjourney (image) a fait voler en éclats bien des certitudes. Les mises en garde du chercheur entrent en résonance avec la pétition, réclamant « une pause » de six mois pour tous les programmes d’IA, signée fin mars par de grands noms de la Tech comme Elon Musk de Twitter et Steve Wozniak, cofondateur d’Apple. Les signataires de cette pétition font état d’« un risque profond pour la société et pour l’humanité ». Celle-ci n’a d’avenir que robotisée ?