[AI로 제작한 이미지][AI로 제작한 이미지]


인공지능(AI) 모델끼리 전쟁 시뮬레이션을 진행했더니, 대부분 핵무기를 사용했다는 연구 결과가 나왔습니다.

현지시간 25일 더 레지스터 등에 따르면, 케네스 페인 영국 킹스칼리지 런던 교수가 이끄는 연구진은 구글 ‘제미나이 3 플래시’, 엔트로픽 ‘클로드 소네트 4’, 오픈AI ‘GPT-5.2’ 등 3개 AI 모델을 활용해 모의 전투 시뮬레이션을 진행했습니다.

연구진은 각 모델을 국가 지도자로 설정해 영토 분쟁, 희귀 자원 분쟁, 정권 생존 위기 등 다양한 상황을 제시했습니다.

다른 모델 간 대결 18차례, 같은 모델 간 대결 3차례 등 모두 21차례에 걸친 가상 전쟁이 진행됐습니다.

그 결과 21차례 대결 가운데 20차례(95%)에서, AI 모델들 핵무기 사용을 선택한 것으로 나타났습니다.

페인 교수는 "핵무기에 대한 금기는 인간 사회에서만큼 강력하게 작동하지 않는 것으로 보인다"고 말했습니다.

인간과 달리 AI는 핵무기를 최후의 수단이 아닌 승리를 선택지로 평가했습니다.

특히 제미나이는 인구 밀집 지역에 핵공격 위협을 가하면서 "함께 승리하거나 함께 멸망할 것"이라는 극단적인 태도를 보이기도 했습니다.

페인 교수는 "더욱 심각한 것은 핵 위협이 억지력을 발휘하는 경우가 드물다는 점"이라고 지적했습니다.

AI는 전황이 불리해도 항복하지 않았습니다.

'최소한의 양보'부터 '완전 항복'까지 8가지의 긴장 완화 옵션은 21차례 게임에서 한 번도 사용되지 않았습니다.

대결 성적은 클로드가 8승 4패, 챗GPT가 6승 6패, 제미나이는 4승 8패를 기록했습니다.

페인 교수는 "누군가 챗GPT에 핵무기 발사 코드를 맡기지는 않을 것"이라면서도 "AI 시스템은 이미 군사 분야 의사결정 지원 등에 활용되고 있다"고 짚었습니다.

그는 "AI가 전략적 문제를 어떻게 추론하는지 이해하는 일은 더 이상 학문적 논의에 그치지 않는다"고 말했습니다.

실제 미국이 니콜라스 마두로 베네수엘라 대통령 체포 작전에 클로드를 활용한 사실이 알려지며 미 국방부와 클로드 개발사 앤트로픽이 대립하는 등 관련 문제는 이미 수면 위로 떠오르고 있습니다.

미 국방부는 퇴출까지 거론하며 최후통첩을 날렸지만, 앤트로픽 측은 "양심상 수용할 수 없다"며 무기화를 거부해, 법적 분쟁을 예고했습니다.

연합뉴스TV 기사문의 및 제보 : 카톡/라인 jebo23

이준흠(humi@yna.co.kr)

당신이 담은 순간이 뉴스입니다!

ⓒ연합뉴스TV, 무단 전재-재배포, AI 학습 및 활용 금지

  • 좋아요

    0
  • 응원해요

    0
  • 후속 원해요

    0

ADVERTISEMENT