L'autorité italienne de la concurrence clôt ses enquêtes contre DeepSeek, Mistral AI et Scaleup après leurs engagements pour mieux informer les utilisateurs sur les risques d'hallucinations de leurs IA génératives.
L'Italie pionnière en Europe sur l'…
© L'entreprise Intelligente
L'autorité italienne de la concurrence clôt ses enquêtes contre DeepSeek, Mistral AI et Scaleup après leurs engagements pour mieux informer les utilisateurs sur les risques d'hallucinations de leurs IA génératives.
L'Italie pionnière en Europe sur l'encadrement des hallucinations IA
L'autorité italienne de la concurrence (AGCM) a annoncé jeudi la clôture de ses investigations contre trois entreprises d'intelligence artificielle générative, marquant une première en Europe. Selon The Economic Times (Inde), l'autorité transalpine visait le chinois DeepSeek, le français Mistral AI et le turc Scaleup Yazilim Hizmetleri pour des pratiques commerciales déloyales liées aux risques d'hallucinations IA.
Cette décision fait de l'Italie le premier pays européen à obtenir des engagements contraignants d'acteurs majeurs de l'IA générative sur cette problématique cruciale pour les entreprises utilisatrices.
Des engagements concrets pour protéger les utilisateurs professionnels
Les trois entreprises ont accepté des mesures spécifiques pour réduire les risques commerciaux. Selon The Economic Times (Inde), DeepSeek, Mistral AI et Scaleup s'engagent désormais à "mieux informer les utilisateurs sur les risques d'hallucinations via leurs sites web et applications, en ajoutant des avertissements permanents à leurs services de chatbot".
DeepSeek va plus loin en s'engageant à investir dans des technologies pour réduire ces risques, tout en reconnaissant que "la technologie actuelle ne peut pas les prévenir entièrement". Pour NOVA AI, le service de chatbot multiplateforme de Scaleup, l'entreprise devra clarifier qu'elle "fournit une interface unique pour accéder à plusieurs chatbots sans agréger ni traiter leurs réponses".
Un enjeu majeur pour les PME françaises utilisatrices d'IA
Cette démarche italienne révèle l'urgence d'encadrer les hallucinations IA dans un contexte professionnel. Pour les PME françaises qui intègrent ces outils dans leurs processus métiers, les risques sont multiples : décisions commerciales basées sur des données erronées, contenus marketing trompeurs, ou analyses financières biaisées.
L'implication de Mistral AI, licorne française de l'IA, dans cette procédure souligne que même les acteurs européens ne sont pas exempts de ces problématiques. Les dirigeants français doivent donc anticiper des exigences similaires de la part des autorités nationales, notamment la CNIL qui surveille déjà l'usage des IA génératives en entreprise.
Recommandations pour les dirigeants français
Face à cette évolution réglementaire européenne, les PME françaises doivent adopter une approche proactive. Il est recommandé d'auditer dès maintenant les outils d'IA générative utilisés en interne, de former les équipes aux risques d'hallucinations, et d'établir des procédures de vérification systématique des contenus générés.
L'accompagnement de BPI France dans la transformation numérique peut inclure ces aspects de conformité IA. Les entreprises françaises ont également intérêt à surveiller les évolutions de l'AI Act européen, qui pourrait s'inspirer de cette approche italienne pour harmoniser la protection des utilisateurs professionnels à l'échelle européenne.
Sources : The Economic Times (Inde).