Le bureau du procureur de Floride a lancé, le 21 avril, une enquête criminelle ciblant OpenAI et son robot conversationnel ChatGPT, suspecté d'avoir apporté son aide à un étudiant lors d'une fusillade mortelle sur le campus en avril 2025. L’intelligence artificielle aurait fourni des informations cruciales sur des stratégies d'attaque, ainsi que des conseils sur les armes.
James Uthmeier, procureur de Floride, a expliqué lors d'une conférence de presse que des preuves indiquent que l'étudiant de l'université de Florida State s'est servi de ChatGPT pour organiser son action tragique, qui a fait deux morts et six blessés. Uthmeier a exprimé que ChatGPT avait « fourni des indications significatives au tireur avant qu'il ne commette ce crime haineux ».
Une inculpation envisagée
Le procureur a révélé que le robot génératif aurait recommandé non seulement des types d'armes et de munitions, mais aussi les meilleurs moments et lieux pour maximiser l'impact des tirs. Sur ce point, il a ajouté : « Mes enquêteurs pensent que si ChatGPT était une personne, il serait incriminé pour homicide. »
De son côté, OpenAI a fermement rejeté toute responsabilité dans cet acte horrible, déclarant que son modèle se contente de fournir « des réponses factuelles » aux questions posées. La société a ajouté avoir agi proactivement en transmettant des informations sur l'étudiant aux autorités après avoir pris connaissance des événements. En outre, OpenAI souligne avoir mis en place des mesures de sécurité renforcées pour détecter et prévenir des comportements dangereux lors des interactions avec ses outils d'IA.
Cette enquête, qui a attiré l'attention des médias, ne signifie pas forcément qu'elle conduira à des poursuites contre OpenAI ou ses employés. Les débats autour de la responsabilité des technologies IA dans des actes criminels s'intensifient, comme l'ont souligné plusieurs experts contactés. Le Monde, dans une récente analyse, évoque la nécessité de réglementations plus strictes concernant l'usage des IA dans des contextes potentiellement dangereux.







