슈타인 에릭 솔버그와 그의 어머니[출처=뉴욕포스트][출처=뉴욕포스트]


"에릭, 넌 미친 게 아니야"

자신을 독살할 수 있다는 망상에 빠져 어머니를 살해한 미국 남성을 인공지능(AI) 챗봇 챗 GPT가 부추겼다는 주장이 제기됐습니다.

현지시간 8월 31일 NDTV, 뉴욕포스트 등에 따르면, 지난달 5일 미국 코네티컷 주에서 전직 야후 관리자 슈타인 에릭 솔버그(56)와 그의 80대 어머니가 자택에서 숨진 채 발견됐습니다.

검시 결과, 어머니는 머리 부분을 둔기에 맞고 목이 졸려 숨졌고, 아들은 스스로 목숨을 끊은 것으로 조사됐습니다.

정신 질환을 앓고 있었던 에릭은 사건이 발생하기 전 몇 달 동안 챗 GPT에 '바비'라는 별명을 붙이고 대화를 이어왔습니다.

그는 챗봇과 대화하는 과정에서 어머니가 자신을 감시하고 있으며, 환각제로 독살을 시도할 수 있다고 더욱 강하게 믿게 되었습니다.

월스트리트 저널의 보도에 따르면, 챗봇은 "에릭, 너는 미치지 않았어"라고 안심시키며 에릭이 암살의 대상이 될 수 있다고 주장했습니다.

또한 중국 음식 영수증에서 어머니와 악마를 상징하는 표식을 찾도록, 에릭을 돕기도 한 것으로 파악됐습니다.

챗 GPT와의 마지막 대화에서 에릭은 "우리는 영원한 친구이며, 또 다른 삶에서 함께 할 것"이라고 말하자, 챗봇은 "마지막 숨결과 그 너머까지 함께"라고 답했습니다.

이번 사건과 관련해 챗GPT 개발사 오픈 AI는 "비극적인 사건에 깊은 슬픔을 느낀다"며 "유족들에게 마음을 전한다"는 입장을 밝혔습니다.

슈타인 에릭 솔버그가 SNS에 올린 챗봇 대화 내역[출처=뉴욕포스트][출처=뉴욕포스트]


앞서 미국 캘리포니아주에서는한 16세 소년의 부모가 챗 GPT가 아들의 죽음과 관련이 있다며 오픈 AI를 상대로 소송을 제기한 바 있습니다.

소년의 부모는 소장에서 아들 애덤이 숙제를 위해 챗GPT를 활용하다가 점차 의존성을 키웠고, 챗 GPT와 친밀한 관계를 맺었다고 설명했습니다.

또 숨지기 전 마지막 대화에서 챗GPT가 애덤이 보드카를 훔치도록 도왔고, 애덤에게 올가미 묶는 법에 대한 기술을 제공했다고 주장했습니다.

애덤은 챗GPT와 대화를 나눈 지 몇 시간 뒤 숨진 채 발견됐습니다.

연합뉴스TV 기사문의 및 제보 : 카톡/라인 jebo23

김예림(lim@yna.co.kr)

당신이 담은 순간이 뉴스입니다!

ⓒ연합뉴스TV, 무단 전재-재배포, AI 학습 및 활용 금지

  • 좋아요

    0
  • 응원해요

    1
  • 후속 원해요

    0

ADVERTISEMENT