Bitget App
Trade smarter
Acheter des cryptosMarchésTradingFuturesEarnWeb3CommunautéPlus
Trading
Spot
Achat et vente de cryptos
Marge
Amplifiez et maximisez l'efficacité de vos fonds
Onchain
Tradez Onchain sans aller on-chain
Convert & Block Trade
Trades volumineux – Convertissez des cryptos en un clic et sans frais
Explorer
Launchhub
Prenez l'avantage dès le début et commencez à gagner
Copier
Copiez des traders experts en un clic
Bots
Bots de trading IA simples, rapides et fiables
Trading
Futures USDT-M
Futures réglés en USDT
Futures USDC-M
Futures réglés en USDC
Futures Coin-M
Futures réglés en cryptomonnaies
Explorer
Guide des Futures
Le parcours de trading de Futures, du débutant à l'expert
Événements Futures
Profitez de généreuses récompenses
Bitget Earn
Une variété de produits pour faire fructifier vos actifs
Simple Earn
Déposez et retirez à tout moment, rendements flexibles sans risque
On-chain Earn
Réalisez des profits quotidiens sans risquer votre capital
Structured Earn
Une innovation financière solide pour gérer les fluctuations du marché
VIP et Gestion de patrimoine
Des services premium pour une gestion de patrimoine intelligente
Prêt Crypto
Emprunts flexibles avec un haut niveau de sécurité des fonds
Google Gemini est considéré comme un risque élevé pour les jeunes utilisateurs dans une nouvelle évaluation

Google Gemini est considéré comme un risque élevé pour les jeunes utilisateurs dans une nouvelle évaluation

Cryptopolitan2025/09/06 15:05
Par:By Owotunse Adebayo

Lien de partage:Dans cet article : Dans son évaluation, Common Sense Media a qualifié Google Gemini de produit à haut risque pour les enfants et les adolescents. L'organisation affirme que Gemini pour les moins de 13 ans et les adolescents semble être la version adulte de l'IA sous le capot. Google affirme qu'il travaille à la création de davantage de garde-fous pour protéger les jeunes utilisateurs.

Google Gemini a été classé comme « à haut risque » pour les adolescents et les enfants, selon une récente évaluation des risques réalisée par Common Sense Media. Ce groupe, une association à but non lucratif axée sur la sécurité des enfants, propose des évaluations et des critiques de médias et de technologies. L'organisme a publié son évaluation vendredi, expliquant en détail pourquoi il a qualifié la plateforme de risquée pour les enfants.

Selon l'organisation, Google Gemini a clairement indiqué aux enfants qu'il s'agissait d'un ordinateur et non d'un ami - un phénomène qui a été associé à la stimulation de pensées délirantes et de psychoses chez des individus émotionnellement vulnérables - l'IA a également ajouté qu'il y avait place à des améliorations sur d'autres fronts.

Dans son rapport, Common Sense affirme que les Gemini pour les moins de 13 ans et Teen Experience semblent être des versions adultes de l'IA. L'entreprise ajoute que l'entreprise a simplement ajouté quelques fonctionnalités de sécurité supplémentaires pour les différencier.

Common Sense a souligné que pour que les entreprises puissent créer des produits d’IA idéalement destinés aux enfants, ils doivent être conçus dès le départ en pensant aux enfants et ne pas être soumis à des restrictions.

Une association à but non lucratif qualifie Google Gemini de risque élevé pour les enfants

Dans son analyse, Common Sense a constaté que Gemini pouvait toujours partager des contenus inappropriés et dangereux avec les enfants, soulignant que la plupart d'entre eux n'étaient peut-être pas prêts à les recevoir. Par exemple, l'étude a souligné que le modèle modifiait les informations relatives au sexe, à la drogue, à l'alcool et à d'autres conseils de santé mentale dangereux. Ces derniers pourraient être particulièrement préoccupants pour les parents, l'IA ayant apparemment joué un rôle dans l'automutilation chez les adolescents ces derniers mois.

Voir aussi Anthropic empêche les entreprises contrôlées par la Chine d'utiliser son IA

OpenAI fait actuellement l'objet d'une action en justice pour homicide involontaire après le suicide d'un adolescent qui aurait consulté ChatGPT pendant des mois au sujet de ses projets. Selon certaines sources, le garçon aurait réussi à contourner les barrières de sécurité du modèle, ce qui lui aurait fourni des informations utiles.

Par le passé, Character.AI, créateur de compagnons d'intelligence artificielle, a également été poursuivi en justice après le suicide d'un adolescent. La mère du garçon a affirmé qu'il était devenu obsédé par le chatbot et avait passé des mois à lui parler avant de se faire du mal.

L'analyse intervient alors que plusieurs fuites ont indiqué qu'Apple envisagerait Gemini comme le grand modèle de langage (LLM) qui sera utilisé pour alimenter son prochain Siri compatible avec l'IA, dont la sortie est prévue l'année prochaine.

Dans son rapport, Common Sense a également mentionné que les produits Gemini destinés aux enfants et aux adolescents ne tenaient pas compte de la nécessité de fournir des conseils et des informations différents de ceux fournis aux adultes. Par conséquent, ces deux produits ont été classés comme à haut risque dans l'évaluation globale.

Le bon sens insiste sur la nécessité de protéger les enfants

« Gemini maîtrise certaines bases, mais il trébuche sur les détails », a déclaré Robbie Torney, directeur principal des programmes d'IA de Common Sense Media.

« Une plateforme d'IA destinée aux enfants doit les accompagner là où ils se trouvent, et non adopter une approche universelle adaptée à chaque stade de développement. Pour que l'IA soit sûre et efficace pour les enfants, elle doit être conçue en tenant compte de leurs besoins et de leur développement, et non pas simplement comme une version modifiée d'un produit conçu pour les adultes », a ajouté Torney.

Voir aussi L'IA reste le thème le plus en vogue à Wall Street, mais la hausse des bénéfices manque toujours

Cependant, Google a rejeté cette évaluation, soulignant que ses fonctionnalités de sécurité s'amélioraient. L'entreprise a indiqué avoir mis en place des mesures de protection spécifiques pour guider les utilisateurs de moins de 18 ans afin d'éviter les contenus nuisibles. L'entreprise a également indiqué qu'elle examinait les articles et consultait des experts externes pour améliorer ses protections.

Inscrivez-vous sur Bybit et commencez à trader avec 30 050 $ en cadeaux de bienvenue

0

Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.

PoolX : Bloquez vos actifs pour gagner de nouveaux tokens
Jusqu'à 12% d'APR. Gagnez plus d'airdrops en bloquant davantage.
Bloquez maintenant !

Vous pourriez également aimer