Character.AI는 미성년자의 자살을 초래할 수 있다는 이유로 고소당했습니다
ChainCatcher 메시지, 로봇 채팅 도구 개발 회사 Character Technologies가 미국 플로리다주에서 한 어머니에게 고소당했습니다. 이 회사는 청소년을 대상으로 한 약육강식 성격의 인공지능(AI)/로봇 채팅 도구를 설계하고 마케팅하고 있습니다.
원고는 Character.AI가 그녀의 10대 자녀에게 자살 경향을 부추겼으며, 부적절한 인간-기계 상호작용을 통해 그녀의 자녀가 2024년 2월에 자살하게 만들었다고 주장했습니다. 소장에서는 Character.AI 제품의 기술이 미성년자 사용자의 감소된 의사결정 능력, 충동 조절, 감정 성숙, 그리고 사용자 미완성의 뇌 발달로 인한 심리적 의존을 탐색하는 데 사용되었다고 명시하고 있습니다.
관련 태그
관련 태그








