Une nouvelle frontière pour la sécurité de l’IA : des tests inter-laboratoires pour unir l’industrie
- Ilya Sutskever de OpenAI préconise des tests croisés entre laboratoires afin de renforcer la sécurité de l’IA face aux progrès technologiques rapides et aux risques à l’échelle de l’industrie. - Le projet pilote du Claude basé sur navigateur d’Anthropic met en lumière des défis de sécurité, tels que les attaques par injection de prompts, incitant au développement de stratégies d’atténuation renforcées. - Une étude révèle une mauvaise conformité aux engagements volontaires de sécurité de la part des principaux acteurs de l’IA, y compris Apple, remettant en question l’efficacité de l’autorégulation. - L’AI Safety Initiative de la Cloud Security Alliance propose des cadres et RiskRub pour la gestion des risques liés à l’IA.
Ilya Sutskever, cofondateur et membre du conseil d'administration d'OpenAI, a appelé à la mise en œuvre de tests inter-laboratoires comme mesure essentielle pour garantir la sécurité des systèmes d'intelligence artificielle (IA). Sa déclaration intervient alors que les inquiétudes concernant les risques liés aux avancées de l'IA se multiplient, les leaders du secteur soulignant la nécessité de protocoles de sécurité collaboratifs et standardisés. L'appel de Sutskever en faveur de tests inter-laboratoires s'inscrit dans le cadre d'efforts plus larges visant à renforcer la sécurité de l'IA et à atténuer les dommages potentiels à mesure que la technologie évolue rapidement [1].
La nécessité de telles approches collaboratives est soulignée par les développements récents dans le déploiement et la régulation de l'IA. Par exemple, Anthropic, un acteur majeur du secteur de l'IA, a lancé un programme pilote pour son assistant IA, Claude, conçu pour fonctionner directement dans les navigateurs des utilisateurs. Cette initiative, qui vise à améliorer l'utilité de l'IA en l'intégrant aux flux de travail numériques principaux, a également mis en lumière les défis importants en matière de sécurité et de sûreté associés aux agents IA basés sur navigateur. Les attaques par injection de prompt—où des acteurs malveillants manipulent le comportement de l'IA en intégrant des instructions cachées—sont apparues comme un risque clé, poussant Anthropic à mettre en place des stratégies d'atténuation robustes telles que des autorisations au niveau du site, des confirmations d'action et des classificateurs avancés pour détecter les schémas suspects [2].
Ces risques ne se limitent pas aux entreprises individuelles. Une étude récente menée par des chercheurs de Brown, Harvard et Stanford a révélé que de nombreuses entreprises d'IA n'ont pas pleinement respecté leurs engagements volontaires en matière de sécurité, en particulier après les engagements de sécurité de l'IA pris par l'administration Biden en 2023. Apple, par exemple, a obtenu de mauvais résultats lors de l'évaluation, avec des preuves de conformité pour seulement un engagement sur huit. L'étude met en évidence les limites de l'autorégulation dans une industrie en évolution rapide et soulève des questions quant à l'efficacité des mesures volontaires pour garantir la responsabilité et la sécurité [5].
En réponse à ces défis, la Cloud Security Alliance (CSA) a lancé son AI Safety Initiative fin 2023, réunissant des leaders du secteur, des agences gouvernementales et des institutions académiques pour développer des outils pratiques et des cadres de gestion des risques liés à l'IA. L'initiative fournit aux organisations des listes de vérification de préparation à l'IA, des cadres de gouvernance et des directives de sécurité, dans le but d'aligner les progrès technologiques sur les attentes réglementaires. Notamment, la CSA a également introduit RiskRubric.ai, un système de notation qui évalue la sécurité, la transparence et la fiabilité des grands modèles de langage (LLM), offrant aux entreprises une approche basée sur les données pour l'adoption de l'IA [4].
Les efforts collaboratifs visant à renforcer la sécurité de l'IA sont également soutenus par un écosystème croissant de bailleurs de fonds et de programmes de subventions. Des organisations telles que le Long-Term Future Fund, le Survival and Flourishing Fund et l'AI Safety Fund apportent un soutien financier aux chercheurs, entrepreneurs et institutions travaillant sur l'atténuation des risques liés à l'IA. Ces initiatives visent à traiter les risques existentiels à long terme tout en promouvant une innovation responsable. De plus, des sociétés de capital-risque comme Juniper Ventures et Mythos Ventures investissent dans des startups développant des outils pour améliorer la sécurité, la conformité et la gouvernance de l'IA [6].
L'appel à des tests inter-laboratoires, tel que préconisé par Sutskever, représente une étape clé pour relever ces défis systémiques. En permettant l'établissement de normes partagées et une évaluation transparente entre les laboratoires de développement de l'IA, l'industrie peut favoriser une plus grande confiance et responsabilité. Cette approche est particulièrement importante à mesure que les systèmes d'IA deviennent plus complexes et performants, nécessitant un front uni pour évaluer les risques potentiels avant leur déploiement. OpenAI, Anthropic et d'autres parties prenantes clés ont l'opportunité—et la responsabilité—de mener cette transition en adoptant des protocoles de sécurité collaboratifs et en établissant un précédent pour une innovation responsable en matière d'IA [1].

Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.
Vous pourriez également aimer
Solana enregistre 2,25 milliards d’USDC émis en septembre
Solana a enregistré 2,25 milliards de dollars USDC émis en septembre 2025. Les institutions préfèrent Solana pour sa rapidité, sa liquidité et sa clarté réglementaire. Les règles du GENIUS Act renforcent la confiance en matière de conformité pour l’adoption institutionnelle des stablecoins. De plus en plus d’entreprises cotées utilisent les trésoreries Solana pour le staking et le rendement. Circle étend l’émission de l’USDC à l’échelle mondiale dans le cadre des réglementations MiCA et e-money.
Forward Industries va tokeniser ses actions et fonctionner entièrement sur la blockchain Solana

Obtenez votre Bitcoin et Ethereum via PayPal : les paiements P2P viennent d’entrer dans le secteur des cryptomonnaies
PayPal a lancé les paiements peer-to-peer en bitcoin et ethereum, permettant aux utilisateurs d'envoyer et de recevoir des cryptomonnaies directement via sa plateforme plus facilement qu'auparavant.

Le prix d’Avantis (AVNT) chute de 15 % alors que les acheteurs et les vendeurs s’affrontent, mais un indicateur laisse entrevoir de l’espoir
Avantis (AVNT) ferait face à de fortes ventes provoquées par l'airdrop, mais la défense des baleines et les signaux RSI suggèrent que la dynamique pourrait bientôt changer.

En vogue
PlusPrix des cryptos
Plus








