Les poursuites contre OpenAI après la fusillade au Canada soulèvent des questions cruciales sur la responsabilité des entreprises d'IA face aux contenus dangereux.
Un précédent juridique majeur pour l'industrie de l'IA
L'affaire qui secoue actuellem…
© L'entreprise Intelligente
Les poursuites contre OpenAI après la fusillade au Canada soulèvent des questions cruciales sur la responsabilité des entreprises d'IA face aux contenus dangereux.
L'affaire qui secoue actuellement OpenAI marque un tournant dans la responsabilisation des entreprises d'intelligence artificielle. Selon The Economic Times (Inde), les familles des victimes de la fusillade de Tumbler Ridge en Colombie-Britannique ont intenté des poursuites contre OpenAI et son PDG Sam Altman devant un tribunal fédéral de San Francisco. L'accusation est grave : la société aurait identifié le tireur comme une menace crédible huit mois avant l'attaque du 10 février qui a fait neuf morts, dont de nombreux enfants, mais aurait choisi de ne pas alerter les autorités.
Cette affaire représente apparemment la première poursuite aux États-Unis alléguant que ChatGPT a joué un rôle dans la facilitation d'une fusillade de masse, selon The Economic Times (Inde). Jay Edelson, l'avocat représentant les plaignants, prévoit de déposer deux douzaines d'autres poursuites dans les semaines à venir au nom d'autres personnes impactées par la tragédie.
Cet article est réservé aux abonnés
Accédez à l'intégralité de l'actualité AI pour les PME françaises
à partir de 4,90 € / mois.