OpenAIはAIの安全性を確保するための展開を紹介します:新バージョンのリリース前に厳格なテストを実施し、安全性と監視システムを構築します。
ChainCatcher のメッセージによると、ChatGPT 開発会社の OpenAI は公式ウェブサイトに「Our approach to AI safety」(「私たちの AI 安全性へのアプローチ」)というタイトルの記事を公開し、同社が AI モデルの安全性を確保するための取り組みを紹介しました。
記事によれば、AI ツールは現代の人類に多くの利点を提供しています。OpenAI もまた、どの技術にもリスクが伴うことを認識しており、これらのツールがもたらす実際のリスクを考慮し、システムのあらゆるレベルで安全対策を講じる努力をしています。
新しいシステムを公開する前に、OpenAI は厳格なテストを行い、外部の専門家からフィードバックを受け、人工フィードバック強化学習などの技術を通じてモデルの行動を改善し、広範な安全および監視システムを構築します。
さらに、OpenAI は、強力な人工知能システムは厳格な安全評価を受けるべきだと考えています。このような実践を確保するために規制が必要であり、私たちは政府と積極的に協力して、こうした規制の最良の形を策定しています。
同時に、社会はますます強力な AI に適応し、調整するための時間を持つ必要があります。OpenAI は、子供を保護し、プライバシーを尊重し、事実の正確性を向上させることを ChatGPT の安全性に関する取り組みの重点とし、効果的な緩和策や技術の研究により多くの時間とリソースを費やし、現実世界の多様なユースケースに対してテストを行います。(出典リンク)
ChainCatcherは、広大な読者の皆様に対し、ブロックチェーンを理性的に見るよう呼びかけ、リスク意識を向上させ、各種仮想トークンの発行や投機に注意することを提唱します。当サイト内の全てのコンテンツは市場情報や関係者の見解であり、何らかの投資助言として扱われるものではありません。万が一不適切な内容が含まれていた場合は「通報」することができます。私たちは迅速に対処いたします。