扫码下载
BTC $78,323.97 +2.40%
ETH $2,400.19 +3.35%
BNB $642.47 +1.35%
XRP $1.45 +0.95%
SOL $88.30 +2.79%
TRX $0.3345 +1.66%
DOGE $0.0978 +2.44%
ADA $0.2555 +2.02%
BCH $466.60 +4.69%
LINK $9.52 +1.32%
HYPE $40.93 +0.18%
AAVE $93.46 +0.64%
SUI $0.9708 +1.37%
XLM $0.1795 -0.77%
ZEC $319.83 -3.35%
BTC $78,323.97 +2.40%
ETH $2,400.19 +3.35%
BNB $642.47 +1.35%
XRP $1.45 +0.95%
SOL $88.30 +2.79%
TRX $0.3345 +1.66%
DOGE $0.0978 +2.44%
ADA $0.2555 +2.02%
BCH $466.60 +4.69%
LINK $9.52 +1.32%
HYPE $40.93 +0.18%
AAVE $93.46 +0.64%
SUI $0.9708 +1.37%
XLM $0.1795 -0.77%
ZEC $319.83 -3.35%

研究:长期依赖 ChatGPT 等大型语言模型或将损害认知能力

2025-06-20 10:03:23
收藏

ChainCatcher 消息,麻省理工学院、韦尔斯利学院和马萨诸塞艺术学院的研究团队最新发现,长期依赖 ChatGPT 等大型语言模型(LLM)可能损害认知能力。

研究显示,使用 AI 写作的参与者大脑中 Alpha 波连接数量仅为独立思考者的一半(42 比 79),且 83.3%无法准确引用自己的文章内容。研究者称这种现象为"认知负债"——短期内减轻思维负担但长期导致批判性思维和创造力下降。

app_icon
ChainCatcher 与创新者共建Web3世界