Trump envisage de contrôler les IA avant leur sortie, et c'est Anthropic qui a tout déclenché

Trump envisage de contrôler les IA avant leur sortie, et c'est Anthropic qui a tout déclenché

Difficile d’imaginer scénario plus ironique : l’administration qui a abrogé dès janvier 2025 le décret Biden sur la sécurité de l’IA serait désormais tentée de faire exactement ce qu’elle avait enterré. L’info vient du New York Times et de plusieurs officiels américains anonymes. Selon eux, la Maison-Blanche discuterait d’un ordre exécutif imposant une évaluation obligatoire des modèles d’IA avant leur déploiement public. Un virage à 180 degrés, déclenché en grande partie par Anthropic elle-même.
 
Mythos, le modèle qui a tout déclenché
 
Le modèle Mythos d’Anthropic est au cœur de l’affaire. La société l’a présenté comme capable d’identifier des milliers de vulnérabilités logicielles critiques, et l'a jugé trop dangereux pour une diffusion publique. Ce positionnement, aussi habile qu’ambigu sur le plan marketing, a immédiatement attiré l’attention des agences fédérales. La NSA aurait d’ailleurs déjà utilisé Mythos pour évaluer des failles dans les déploiements Microsoft de l’administration, pendant que d’autres agences restaient coupées des outils Anthropic. À nuancer toutefois : certains analystes contestent la dangerosité réelle de Mythos, plusieurs études montrant que des modèles bien moins chers obtiennent des résultats comparables sur ce type de tâches.

cndp

Déclaration N° : D-NL-189/2020

Dossier presse : 2022/02

Copyright ©Linformation.ma | Tous Droits Résérvés
Développé par WibDay
Server Error
500
Server Error