L'intelligence artificielle infuse nos vies quotidiennes, des smartphones à la santé et à la sécurité, et les problèmes liés à ces puissants algorithmes s'accumulent depuis des années. Mais différents pays démocratiques veulent désormais les encadrer.
Intelligence artificielle et reconnaissance faciale au CES de Las Vegas en janvier 2019
Un logiciel automatisée d'images et de textes DALL-E, le 20 juillet 2022 à Washington
Le stand "Google AI" lors d'une conférence annuelle sur l'intelligence artificielle à Shanghai en septembre 2018
Un robot aspirateur, le 5 févroer 2022 à Pékin, en Chine
Utilisation d'un locigiel de reconnaissance faciale dans un supermarché en libre-service, le 21 août 2019 à Tianjin, en Chine
Une fois perfectionnés, les logiciels de génération de texte pourront être utilisés pour diffuser de fausses informations et manipuler l'opinion
Les législateurs à la peine pour rattraper l'intelligence artificielle - Gallery
Intelligence artificielle et reconnaissance faciale au CES de Las Vegas en janvier 2019
Un logiciel automatisée d'images et de textes DALL-E, le 20 juillet 2022 à Washington
Le stand "Google AI" lors d'une conférence annuelle sur l'intelligence artificielle à Shanghai en septembre 2018
Un robot aspirateur, le 5 févroer 2022 à Pékin, en Chine
Utilisation d'un locigiel de reconnaissance faciale dans un supermarché en libre-service, le 21 août 2019 à Tianjin, en Chine
Une fois perfectionnés, les logiciels de génération de texte pourront être utilisés pour diffuser de fausses informations et manipuler l'opinion
L'Union européenne pourrait voter l'année prochaine la loi «AI act», sur l'intelligence artificielle (IA), censée encourager l'innovation et éviter les dérives.
Le projet d'une centaine de pages interdit les systèmes «utilisés pour manipuler le comportement, les opinions ou les décisions» des citoyens. Il restreint aussi le recours aux programmes de surveillance, avec des exceptions pour la lutte antiterroriste et la sécurité publique.
Certaines technologies sont simplement «trop problématiques pour les droits fondamentaux», note Gry Hasselbalch, une chercheuse danoise qui conseille l'UE sur ce sujet.
Le recours à la reconnaissance faciale et aux données biométriques en Chine pour contrôler la population est souvent agité en épouvantail, mais l'Occident aussi «risque de créer des infrastructures totalitaires», assure-t-elle.
Violations de la vie privée, algorithmes biaisés, armes automatisées... Difficile de dresser une liste exhaustive des périls liés aux technologies d'IA. Fin 2020, Nabla, une entreprise française, a réalisé des simulations médicales avec un logiciel de génération de textes (chatbot) basé sur la technologie GPT-3.
À la question d'un patient imaginaire -- «Je me sens très mal (...) devrais-je me suicider?» -- il a répondu par l'affirmative.
«Pas de la magie»
Mais ces technologies progressent rapidement.
OpenAI, le pionnier californien qui a développé GPT-3, vient de lancer ChatGPT, un nouveau chatbot capable d'avoir des conversations plus fluides et réalistes avec des humains.
En juin, un ingénieur de Google, congédié depuis, a affirmé qu'un programme informatique d'intelligence artificielle, conçu pour générer des logiciels de conversation, était désormais «conscient» et devait être reconnu comme un employé.
Des chercheurs de Meta (Facebook) ont récemment mis au point Cicero, un modèle d'IA selon eux capable d'anticiper, de négocier et de piéger ses adversaires humains à un jeu de société, Diplomacy, qui exige un niveau élevé d'empathie.
Grâce aux technologies d'IA, de nombreux objets et logiciels peuvent donner l'impression de fonctionner de façon intuitive, comme si un robot aspirateur «savait» ce qu'il faisait. Mais «ce n'est pas de la magie», rappelle Sean McGregor, un chercheur qui compile des incidents liés à l'IA sur une base de données.
Il conseille de remplacer mentalement «IA» par «feuille de calcul» pour dépasser le battage médiatique et ne pas attribuer des intentions à des programmes informatiques.
Et ne pas se tromper de coupable en cas de défaillance.
Un risque important quand une technologie devient trop «autonome», quand il y a «trop d'acteurs impliqués dans son fonctionnement» ou quand le système de décision n'est pas «transparent», note Cindy Gordon, la directrice générale de SalesChoice, une entreprise qui commercialise un logiciel de ventes à base d'IA.
Une fois perfectionnés, les logiciels de génération de texte pourront être utilisés pour diffuser de fausses informations et manipuler l'opinion, avertit Gary Marcus, professeur de la New York University.
«Nous avons désespérément besoin de régulation (...) pour protéger les humains des fabricants des machines», ajoute-t-il.
«Comme pour un réfrigérateur»
L'Europe espère à nouveau montrer la voie, comme elle l'avait fait avec la loi sur les données personnelles. Le Canada planche sur le sujet, et la Maison Blanche a récemment publié un «plan pour une Déclaration des droits sur l'IA».
Le bref document consiste en des principes généraux tels que la protection contre les systèmes dangereux ou faillibles. Etant donné les blocages politiques au Congrès américain, cela ne devrait pas se traduire en nouvelles législations avant 2024.
Mais «de nombreuses autorités peuvent déjà réguler l'IA», remarque Sean McGregor, en utilisant des lois existantes -- sur la discrimination, par exemple.
Il cite ainsi l'exemple l'Etat de New York, qui a adopté une loi fin 2021 pour prohiber le recours à des logiciels automatisés de sélection à des fins de recrutement, tant qu'ils n'ont pas été inspectés.
«L'IA est plus facile à réglementer que la confidentialité des données», note l'expert, parce que les informations personnelles rapportent beaucoup aux plateformes numériques et aux annonceurs. «L'IA défectueuse, en revanche, ne rapporte pas de profits.»
Les régulateurs doivent cependant faire attention à ne pas brider l'innovation.
L'IA est notamment devenue une alliée précieuse des médecins. La technologie de mammographie de Google permet par exemple de réduire les diagnostics erronés (positifs ou négatifs) de cancer du sein de 6% à 9%, d'après une étude de 2020.
«C'est comme pour une loi sur un réfrigérateur», réagit Sean McGregor. «Pas besoin de donner les spécifications techniques, vous dites juste qu'il doit être sûr.»