掃碼下載
首頁
文章
快訊
專題
專欄
知識庫
日曆
市場
圖表
活動
工具導航
首頁
快訊
深度
文章
專欄
專題
日曆
數據
市場
圖表
發現
活動
知識庫
工具導航
HK Web3 Feastival
BTC
$77,415.11
+3.30%
ETH
$2,438.14
+4.01%
BNB
$644.32
+1.76%
XRP
$1.49
+2.40%
SOL
$89.35
+0.34%
TRX
$0.3274
+0.06%
DOGE
$0.1004
+1.46%
ADA
$0.2612
+0.90%
BCH
$454.76
+1.17%
LINK
$9.69
+1.87%
HYPE
$44.72
+2.72%
AAVE
$116.28
+0.97%
SUI
$1.01
+0.42%
XLM
$0.1753
+3.88%
ZEC
$329.74
-2.15%
BTC
$77,415.11
+3.30%
ETH
$2,438.14
+4.01%
BNB
$644.32
+1.76%
XRP
$1.49
+2.40%
SOL
$89.35
+0.34%
TRX
$0.3274
+0.06%
DOGE
$0.1004
+1.46%
ADA
$0.2612
+0.90%
BCH
$454.76
+1.17%
LINK
$9.69
+1.87%
HYPE
$44.72
+2.72%
AAVE
$116.28
+0.97%
SUI
$1.01
+0.42%
XLM
$0.1753
+3.88%
ZEC
$329.74
-2.15%
首頁
文章
快訊
專題
專欄
知識庫
日曆
市場
圖表
活動
工具導航
alpha波連接數量
全部
文章
快訊
全部
研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力
ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅為獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象為"認知負債"------短期內減輕思維負擔但長期導致批判性思維和創造力下降。
2025-06-20
ChatGPT
Alpha波連接數量
ChainCatcher
與創新者共建Web3世界
開啟App