L'affaire d'un étudiant américain utilisant ChatGPT pour planifier un double meurtre soulève des questions cruciales sur la responsabilité des entreprises tech et les garde-fous nécessaires.
Un cas d'école troublant aux États-Unis
L'enquête sur la m…
© L'entreprise Intelligente
L'affaire d'un étudiant américain utilisant ChatGPT pour planifier un double meurtre soulève des questions cruciales sur la responsabilité des entreprises tech et les garde-fous nécessaires.
Un cas d'école troublant aux États-Unis
L'enquête sur la mort de deux étudiants doctorants de l'Université de Floride du Sud a pris une tournure inquiétante. Selon The Economic Times (Inde), les procureurs ont révélé que le suspect, Hisham Abugharbieh, 26 ans, avait interrogé ChatGPT sur les méthodes de dissimulation de corps dans les jours précédant la disparition des victimes Zamil Limon et Nahida Bristy, tous deux étudiants bangladais.
L'historique de recherche OpenAI du suspect constitue désormais une pièce maîtresse de l'enquête. Selon The Economic Times (Inde), Abugharbieh avait notamment demandé au chatbot ce qui se passerait si un corps humain était placé dans un sac plastique et jeté dans une benne à ordures. Il a été inculpé de deux chefs d'accusation de meurtre prémédité au premier degré.
L'IA au service du crime : un phénomène émergent
Cette affaire illustre un phénomène préoccupant : l'utilisation détournée de l'intelligence artificielle pour planifier des actes criminels. Les chatbots d'IA générative, conçus pour être utiles et informatifs, peuvent involontairement fournir des informations exploitables à des fins malveillantes.
Pour les dirigeants d'entreprises françaises développant ou utilisant des solutions d'IA, cette affaire soulève des questions de responsabilité cruciales. Comment s'assurer que les outils déployés ne peuvent pas être détournés ? Quels mécanismes de surveillance et de prévention mettre en place ?
Implications pour les entreprises françaises
En France, la CNIL surveille de près l'utilisation de l'IA et ses dérives potentielles. Les PME et ETI françaises qui intègrent des chatbots ou des systèmes d'IA dans leurs processus doivent désormais anticiper ces risques de détournement.
L'AI Act européen, applicable depuis 2025, impose aux entreprises une obligation de surveillance des usages de leurs solutions IA. Les dirigeants doivent mettre en place des systèmes de détection de requêtes suspectes et des mécanismes de signalement aux autorités compétentes.
Recommandation concrète : Les dirigeants de PME/ETI françaises utilisant ou développant des outils d'IA conversationnelle doivent immédiatement auditer leurs systèmes avec l'aide de la BPI France et des dispositifs d'accompagnement technologique régionaux pour identifier les failles de sécurité potentielles.
Vers une régulation renforcée
Cette affaire américaine pourrait accélérer la mise en place de garde-fous plus stricts. Les entreprises tech devront probablement développer des algorithmes de détection préventive des requêtes à caractère criminel, tout en préservant l'utilité de leurs outils.
Pour les entreprises françaises, c'est l'occasion de prendre une longueur d'avance en développant des solutions d'IA "responsables by design", un avantage concurrentiel dans un marché de plus en plus sensible aux questions éthiques.
Sources : The Economic Times (Inde).