Gros bugChatGPT divague complètement pendant des heures
ATS
22.2.2024 - 00:36
ChatGPT, la très populaire interface d'intelligence artificielle (IA) générative, a débloqué pendant plusieurs heures mardi. L'IA répondait aux questions des utilisateurs avec des phrases sans queue ni tête, un rappel que ces systèmes sont encore balbutiants.
22.02.2024, 00:36
22.02.2024, 06:37
ATS
OpenAI, la start-up qui a lancé le programme à la fin 2022, a indiqué mercredi matin sur son site que ChatGPT fonctionnait à nouveau «normalement». Plus tard, elle a publié un bref communiqué d'explications sur le problème informatique responsable du problème, survenu à la suite d'une mise à jour.
«L'argent pour le bit et la liste est l'un des étrangers et l'Internet où la monnaie et la personne du coût est l'un des amis et la monnaie. La prochaine fois que vous regarderez le système, l'échange et le fait, n'oubliez pas de donner», avait par exemple répondu ChatGPT à une question de «scott.eskridge», un utilisateur.
De nombreux utilisateurs ont mis en ligne des captures d'écran montrant des réponses erratiques ou incompréhensibles du modèle d'IA générative. Cette technique de pointe permet de produire toutes sortes de contenus (textes, sons, vidéos), d'ordinaire de qualité bluffante, sur simple requête en langage courant.
«Mon GPT est hanté»
«Il génère des mots totalement inexistants, omet des mots et produit des séquences de petits mots-clés qui me sont inintelligibles, entre autres anomalies», a ainsi relaté un utilisateur baptisé «IYAnepo», sur le même forum des développeurs, qui se servent des outils d'OpenAI. «On pourrait penser que j'ai spécifié de telles instructions, mais ce n'est pas le cas. J'ai l'impression que mon GPT est hanté».
OpenAI a expliqué mercredi qu'une «optimisation de l'expérience utilisateur» avait «introduit un 'bug' dans la manière dont le modèle traite le langage». «Les modèles de langage génèrent des réponses en échantillonnant des mots de manière aléatoire, en partie sur la base de probabilités», a souligné l'entreprise, avant de donner plus détails techniques et de conclure que l'incident a été «résolu» après «l'installation d'un correctif».
L'incident rappelle que l'IA, même générative, n'a pas de conscience ni de compréhension de ce qu'elle «dit», contrairement à l'impression qu'elle peut donner lors des «conversations» avec les utilisateurs.
A leurs débuts il y a un an, des interfaces comme ChatGPT ou ses rivales de Google et Microsoft avaient régulièrement tendance à «halluciner», c'est-à-dire à inventer des faits ou même simuler des émotions.