Character.AI 因可能造成了一名未成年人自殺而被起訴
ChainCatcher 消息,機器人聊天工具研發公司 Character Technologies 在美國佛羅里達州被一名母親起訴。該公司設計和行銷一款面向青少年的弱肉強食性質的人工智慧(AI)/機器人聊天工具。原告指控 Character.AI 怂恿她十多歲的孩子出現自殺傾向,並通過不合適的人機互動造成她的孩子在 2024 年 2 月自殺。訴狀稱,Character.AI 產品的技術用於探索未成年人用戶消退了的決策能力、衝動控制、情緒成熟,以及用戶不完整的大腦發育所產生的心理依賴。