GoogleはAI StudioからGemma AIを撤回し、精度への懸念から開発者専用であることを改めて表明
簡単に言えば グーグルは、事実に関する質問で幻覚反応が出るとの報告を受けてジェマモデルを撤回したが、同社はジェマモデルが開発者および研究目的のためのものだったことを強調した。
テクノロジー会社 グーグル 同社は、事実に関する質問に対する回答が不正確であるという報告を受けて、Gemma AIモデルの撤回を発表し、同モデルは研究および開発者の使用のみを目的として設計されたものであることを明らかにした。
同社の声明によると、GemmaはAI Studio経由ではアクセスできなくなりましたが、開発者はAPI経由で引き続き利用できます。この決定は、開発者以外のユーザーがAI Studio経由でGemmaを使用し、本来の機能ではない事実情報を要求していた事例が生じたことがきっかけでした。
Googleは、Gemmaは消費者向けツールとして機能することを意図したものではなく、その目的に関するさらなる誤解を防ぐために削除したと説明した。
Googleは説明の中で、Gemmaファミリーのモデルは、事実に基づく支援や消費者とのやり取りを目的としたものではなく、開発者や研究コミュニティを支援するためのオープンソースツールとして開発されたことを強調しました。同社は、Gemmaのようなオープンモデルは、実験とイノベーションを促進し、ユーザーがモデルのパフォーマンスを検証し、問題を特定し、貴重なフィードバックを提供できるようにすることを目的としていると述べています。
Google は、最近がん治療開発への新たなアプローチを特定する上で役割を果たした Gemma C2S-Scale 27B モデルを例に挙げ、Gemma がすでに科学の進歩に貢献していることを強調しました。
同社は、幻覚(モデルが誤った情報や誤解を招く情報を生成すること)や、追従(モデルが同意できるが不正確な応答を生成すること)など、AI業界が直面しているより広範な課題を認識している。
これらの問題は、次のような小規模なオープンモデルで特によく見られます。 ジェマ Googleは、幻覚を減らし、AIシステムの信頼性とパフォーマンスを継続的に向上させるという取り組みを再確認した。
Google、AIの幻覚を抑制するための多層戦略を実施
同社は、大規模言語モデル(LLM)における幻覚を最小限に抑えるため、データグラウンディング、厳格なトレーニングとモデル設計、構造化されたプロンプトとコンテキストルール、そして継続的な人間による監視とフィードバックメカニズムを組み合わせた多層的なアプローチを採用しています。しかし、これらの対策にもかかわらず、同社は幻覚を完全に排除することはできないことを認識しています。
根本的な限界は、LLMの動作方法に起因しています。LLMは真実を理解するのではなく、学習中に特定されたパターンに基づいて、起こりそうな単語の並びを予測することで機能します。モデルが十分な根拠を欠いていた場合、または不完全または信頼性の低い外部データに遭遇した場合、信憑性があるように聞こえるものの、事実上は正しくない回答を生成する可能性があります。
さらに、Googleは、モデルのパフォーマンスを最適化するには、固有のトレードオフが存在すると指摘しています。注意を払い、出力を制限することで幻覚を抑制することは可能ですが、多くの場合、特定のタスクにおける柔軟性、効率性、有用性が犠牲になります。その結果、特にデータカバレッジが限られている新興分野、専門分野、または過小評価されている分野では、時折、不正確な結果が残ることになります。
免責事項:本記事の内容はあくまでも筆者の意見を反映したものであり、いかなる立場においても当プラットフォームを代表するものではありません。また、本記事は投資判断の参考となることを目的としたものではありません。
こちらもいかがですか?
ETHは3,000.00ドルを突破し、現在は3,001.42ドルで取引されています。
シバイヌは決済カードと1億14Mトークンプレゼント企画の発売にもかかわらず価格が下落:その理由は以下の通りです

AaveがV4テストネットを展開し、今後の「Pro」体験の開発者プレビューも提供

ビットコインは9万ドルを下回り、暗号資産の調整が2017年以来最悪の水準の一つとなりました

