研究:長期的にChatGPTなどの大規模言語モデルに依存することは、認知能力を損なう可能性がある。
ChainCatcher のメッセージ、マサチューセッツ工科大学、ウェルズリー大学、マサチューセッツ美術大学の研究チームが最新の発見をしました。長期的に ChatGPT などの大規模言語モデル (LLM) に依存することは、認知能力に悪影響を及ぼす可能性があります。
研究によると、AI を使って執筆した参加者の脳内のアルファ波の接続数は、独立して考える人の半分(42 対 79)であり、83.3% が自分の文章内容を正確に引用できませんでした。研究者はこの現象を「認知負債」と呼び、短期的には思考の負担を軽減するものの、長期的には批判的思考や創造性の低下を引き起こすとしています。
ChainCatcherは、広大な読者の皆様に対し、ブロックチェーンを理性的に見るよう呼びかけ、リスク意識を向上させ、各種仮想トークンの発行や投機に注意することを提唱します。当サイト内の全てのコンテンツは市場情報や関係者の見解であり、何らかの投資助言として扱われるものではありません。万が一不適切な内容が含まれていた場合は「通報」することができます。私たちは迅速に対処いたします。