Bitget App
Trade smarter
Acheter des cryptosMarchésTradingFuturesEarnWeb3CommunautéPlus
Trading
Spot
Achat et vente de cryptos
Marge
Amplifiez et maximisez l'efficacité de vos fonds
Onchain
Tradez Onchain sans aller on-chain
Convert & Block Trade
Trades volumineux – Convertissez des cryptos en un clic et sans frais
Explorer
Launchhub
Prenez l'avantage dès le début et commencez à gagner
Copier
Copiez des traders experts en un clic
Bots
Bots de trading IA simples, rapides et fiables
Trading
Futures USDT-M
Futures réglés en USDT
Futures USDC-M
Futures réglés en USDC
Futures Coin-M
Futures réglés en cryptomonnaies
Explorer
Guide des Futures
Le parcours de trading de Futures, du débutant à l'expert
Événements Futures
Profitez de généreuses récompenses
Bitget Earn
Une variété de produits pour faire fructifier vos actifs
Simple Earn
Déposez et retirez à tout moment, rendements flexibles sans risque
On-chain Earn
Réalisez des profits quotidiens sans risquer votre capital
Structured Earn
Une innovation financière solide pour gérer les fluctuations du marché
VIP et Gestion de patrimoine
Des services premium pour une gestion de patrimoine intelligente
Prêt Crypto
Emprunts flexibles avec un haut niveau de sécurité des fonds
Une nouvelle frontière pour la sécurité de l’IA : des tests inter-laboratoires pour unir l’industrie

Une nouvelle frontière pour la sécurité de l’IA : des tests inter-laboratoires pour unir l’industrie

ainvest2025/08/27 19:56
Afficher le texte d'origine
Par:Coin World

- Ilya Sutskever de OpenAI préconise des tests croisés entre laboratoires afin de renforcer la sécurité de l’IA face aux progrès technologiques rapides et aux risques à l’échelle de l’industrie. - Le projet pilote du Claude basé sur navigateur d’Anthropic met en lumière des défis de sécurité, tels que les attaques par injection de prompts, incitant au développement de stratégies d’atténuation renforcées. - Une étude révèle une mauvaise conformité aux engagements volontaires de sécurité de la part des principaux acteurs de l’IA, y compris Apple, remettant en question l’efficacité de l’autorégulation. - L’AI Safety Initiative de la Cloud Security Alliance propose des cadres et RiskRub pour la gestion des risques liés à l’IA.

Ilya Sutskever, cofondateur et membre du conseil d'administration d'OpenAI, a appelé à la mise en œuvre de tests inter-laboratoires comme mesure essentielle pour garantir la sécurité des systèmes d'intelligence artificielle (IA). Sa déclaration intervient alors que les inquiétudes concernant les risques liés aux avancées de l'IA se multiplient, les leaders du secteur soulignant la nécessité de protocoles de sécurité collaboratifs et standardisés. L'appel de Sutskever en faveur de tests inter-laboratoires s'inscrit dans le cadre d'efforts plus larges visant à renforcer la sécurité de l'IA et à atténuer les dommages potentiels à mesure que la technologie évolue rapidement [1].

La nécessité de telles approches collaboratives est soulignée par les développements récents dans le déploiement et la régulation de l'IA. Par exemple, Anthropic, un acteur majeur du secteur de l'IA, a lancé un programme pilote pour son assistant IA, Claude, conçu pour fonctionner directement dans les navigateurs des utilisateurs. Cette initiative, qui vise à améliorer l'utilité de l'IA en l'intégrant aux flux de travail numériques principaux, a également mis en lumière les défis importants en matière de sécurité et de sûreté associés aux agents IA basés sur navigateur. Les attaques par injection de prompt—où des acteurs malveillants manipulent le comportement de l'IA en intégrant des instructions cachées—sont apparues comme un risque clé, poussant Anthropic à mettre en place des stratégies d'atténuation robustes telles que des autorisations au niveau du site, des confirmations d'action et des classificateurs avancés pour détecter les schémas suspects [2].

Ces risques ne se limitent pas aux entreprises individuelles. Une étude récente menée par des chercheurs de Brown, Harvard et Stanford a révélé que de nombreuses entreprises d'IA n'ont pas pleinement respecté leurs engagements volontaires en matière de sécurité, en particulier après les engagements de sécurité de l'IA pris par l'administration Biden en 2023. Apple, par exemple, a obtenu de mauvais résultats lors de l'évaluation, avec des preuves de conformité pour seulement un engagement sur huit. L'étude met en évidence les limites de l'autorégulation dans une industrie en évolution rapide et soulève des questions quant à l'efficacité des mesures volontaires pour garantir la responsabilité et la sécurité [5].

En réponse à ces défis, la Cloud Security Alliance (CSA) a lancé son AI Safety Initiative fin 2023, réunissant des leaders du secteur, des agences gouvernementales et des institutions académiques pour développer des outils pratiques et des cadres de gestion des risques liés à l'IA. L'initiative fournit aux organisations des listes de vérification de préparation à l'IA, des cadres de gouvernance et des directives de sécurité, dans le but d'aligner les progrès technologiques sur les attentes réglementaires. Notamment, la CSA a également introduit RiskRubric.ai, un système de notation qui évalue la sécurité, la transparence et la fiabilité des grands modèles de langage (LLM), offrant aux entreprises une approche basée sur les données pour l'adoption de l'IA [4].

Les efforts collaboratifs visant à renforcer la sécurité de l'IA sont également soutenus par un écosystème croissant de bailleurs de fonds et de programmes de subventions. Des organisations telles que le Long-Term Future Fund, le Survival and Flourishing Fund et l'AI Safety Fund apportent un soutien financier aux chercheurs, entrepreneurs et institutions travaillant sur l'atténuation des risques liés à l'IA. Ces initiatives visent à traiter les risques existentiels à long terme tout en promouvant une innovation responsable. De plus, des sociétés de capital-risque comme Juniper Ventures et Mythos Ventures investissent dans des startups développant des outils pour améliorer la sécurité, la conformité et la gouvernance de l'IA [6].

L'appel à des tests inter-laboratoires, tel que préconisé par Sutskever, représente une étape clé pour relever ces défis systémiques. En permettant l'établissement de normes partagées et une évaluation transparente entre les laboratoires de développement de l'IA, l'industrie peut favoriser une plus grande confiance et responsabilité. Cette approche est particulièrement importante à mesure que les systèmes d'IA deviennent plus complexes et performants, nécessitant un front uni pour évaluer les risques potentiels avant leur déploiement. OpenAI, Anthropic et d'autres parties prenantes clés ont l'opportunité—et la responsabilité—de mener cette transition en adoptant des protocoles de sécurité collaboratifs et en établissant un précédent pour une innovation responsable en matière d'IA [1].

Une nouvelle frontière pour la sécurité de l’IA : des tests inter-laboratoires pour unir l’industrie image 0
0

Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.

PoolX : Bloquez vos actifs pour gagner de nouveaux tokens
Jusqu'à 12% d'APR. Gagnez plus d'airdrops en bloquant davantage.
Bloquez maintenant !

Vous pourriez également aimer

Solana enregistre 2,25 milliards d’USDC émis en septembre

Solana a enregistré 2,25 milliards de dollars USDC émis en septembre 2025. Les institutions préfèrent Solana pour sa rapidité, sa liquidité et sa clarté réglementaire. Les règles du GENIUS Act renforcent la confiance en matière de conformité pour l’adoption institutionnelle des stablecoins. De plus en plus d’entreprises cotées utilisent les trésoreries Solana pour le staking et le rendement. Circle étend l’émission de l’USDC à l’échelle mondiale dans le cadre des réglementations MiCA et e-money.

coinfomania2025/09/16 23:04

Obtenez votre Bitcoin et Ethereum via PayPal : les paiements P2P viennent d’entrer dans le secteur des cryptomonnaies

PayPal a lancé les paiements peer-to-peer en bitcoin et ethereum, permettant aux utilisateurs d'envoyer et de recevoir des cryptomonnaies directement via sa plateforme plus facilement qu'auparavant.

Cryptoticker2025/09/16 21:59
Obtenez votre Bitcoin et Ethereum via PayPal : les paiements P2P viennent d’entrer dans le secteur des cryptomonnaies

Le prix d’Avantis (AVNT) chute de 15 % alors que les acheteurs et les vendeurs s’affrontent, mais un indicateur laisse entrevoir de l’espoir

Avantis (AVNT) ferait face à de fortes ventes provoquées par l'airdrop, mais la défense des baleines et les signaux RSI suggèrent que la dynamique pourrait bientôt changer.

BeInCrypto2025/09/16 21:53
Le prix d’Avantis (AVNT) chute de 15 % alors que les acheteurs et les vendeurs s’affrontent, mais un indicateur laisse entrevoir de l’espoir