OpenAI et Anthropic testent mutuellement leurs modèles sur des questions d'hallucination et de sécurité
Jinse Finance rapporte que OpenAI et Anthropic ont récemment évalué mutuellement les modèles de l’autre afin d’identifier des problèmes potentiellement omis lors de leurs propres tests. Les deux entreprises ont déclaré mercredi sur leurs blogs respectifs qu’au cours de cet été, elles avaient effectué des tests de sécurité sur les modèles d’IA accessibles publiquement de l’autre, et examiné si ces modèles présentaient des tendances à l’hallucination, ainsi que des problèmes dits de “désalignement”, c’est-à-dire lorsque le modèle ne fonctionne pas comme prévu par les développeurs. Ces évaluations ont été réalisées avant le lancement par OpenAI de GPT-5 et la sortie par Anthropic d’Opus 4.1 début août. Anthropic a été fondée par d’anciens employés de OpenAI.
Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.
Vous pourriez également aimer
La probabilité que la Fed réduise les taux d'intérêt de 25 points de base cette semaine atteint 96,1 %.
Zelensky : prêt à rencontrer Trump et Poutine, mais pas à se rendre à Moscou
En vogue
PlusLes traders augmentent leurs paris : ils prévoient que la Fed procédera à une forte baisse des taux de 50 points de base d'ici la fin de l'année.
La présidente de la Commission européenne a annoncé que la Commission s'apprête à proposer un 19e paquet de sanctions contre la Russie, ciblant notamment les crypto-monnaies.
Prix des cryptos
Plus








