La startup OpenAI, soutenue par Microsoft, s'est retrouvée lundi sous le coup d'une plainte pour atteinte à la vie privée déposée par l'association de défense NOYB, au motif qu'elle n'aurait pas corrigé les informations erronées fournies par son chatbot d'IA générative ChatGPT, susceptibles d'enfreindre les règles de l'Union européenne en matière de protection de la vie privée.

ChatGPT, qui a donné le coup d'envoi du boom de l'IA générative à la fin de 2022, peut imiter la conversation humaine et effectuer des tâches telles que la création de résumés de textes longs, la rédaction de poèmes et même la génération d'idées pour une fête à thème.

NOYB a déclaré que le plaignant dans son affaire, qui est également une personnalité publique, a demandé à ChatGPT sa date d'anniversaire et a reçu à plusieurs reprises des informations incorrectes au lieu que le chatbot indique aux utilisateurs qu'il ne dispose pas des données nécessaires.

Le groupe a déclaré qu'OpenAI avait refusé la demande du plaignant de rectifier ou d'effacer les données, affirmant qu'il n'était pas possible de corriger les données et qu'elle n'avait pas non plus divulgué d'informations sur les données traitées, leurs sources ou leurs destinataires.

NOYB a déclaré avoir déposé une plainte auprès de l'autorité autrichienne de protection des données, lui demandant d'enquêter sur le traitement des données par OpenAI et sur les mesures prises pour garantir l'exactitude des données personnelles traitées par les grands modèles linguistiques de l'entreprise.

"Il est clair que les entreprises sont actuellement incapables de faire en sorte que les chatbots comme ChatGPT soient conformes à la législation de l'UE lorsqu'ils traitent des données concernant des individus", a déclaré Maartje de Graaf, avocate de NOYB spécialisée dans la protection des données, dans un communiqué.

" Si un système ne peut pas produire des résultats précis et transparents, il ne peut pas être utilisé pour générer des données sur des personnes. La technologie doit suivre les exigences légales, et non l'inverse", a-t-elle ajouté.

Par le passé, OpenAI a reconnu que l'outil avait tendance à donner des réponses "plausibles mais incorrectes ou absurdes", un problème qu'elle considère comme difficile à résoudre.