掃碼下載
BTC $77,211.95 +3.24%
ETH $2,420.75 +3.62%
BNB $639.94 +0.71%
XRP $1.48 +2.50%
SOL $89.15 +0.26%
TRX $0.3266 +0.18%
DOGE $0.1002 +1.05%
ADA $0.2610 +0.92%
BCH $454.32 +2.08%
LINK $9.66 +1.00%
HYPE $44.16 +0.85%
AAVE $117.17 +1.92%
SUI $1.01 +1.94%
XLM $0.1732 +3.99%
ZEC $329.27 -3.73%
BTC $77,211.95 +3.24%
ETH $2,420.75 +3.62%
BNB $639.94 +0.71%
XRP $1.48 +2.50%
SOL $89.15 +0.26%
TRX $0.3266 +0.18%
DOGE $0.1002 +1.05%
ADA $0.2610 +0.92%
BCH $454.32 +2.08%
LINK $9.66 +1.00%
HYPE $44.16 +0.85%
AAVE $117.17 +1.92%
SUI $1.01 +1.94%
XLM $0.1732 +3.99%
ZEC $329.27 -3.73%

研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力

2025-06-20 10:03:23
收藏

ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。

研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅為獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象為"認知負債"------短期內減輕思維負擔但長期導致批判性思維和創造力下降。

app_icon
ChainCatcher 與創新者共建Web3世界