영국의 우주물리학자 스티븐 호킹 박사가 인공지능(AI) 로봇이 인류보다 빠르게 진화할 가능성을 언급하며 AI의 반란에 대비해야 한다고 촉구했다.
28일(현지시간) AP통신과 영국 일간 데일리 메일에 따르면 호킹 박사는 최근 래리 킹과의 인터넷 토크쇼 인터뷰에서 “AI의 발전이 (인간의 미래에) 반드시 우호적일 것이라고는 생각하지 않는다”고 우려를 표했다.
그는 “AI는 인류보다 빠르게 진화할 수 있는 잠재력을 갖췄다”며 “AI가 스스로 진화할 수 있는 단계가 왔을 때 그들이 우리 인류와 같은 목표를 지니고 있을지는 확신할 수 없다”며 AI 로봇의 반란 가능성을 경고했다.
이어 “‘악당’(rogue) AI는 막기 쉽지 않을 것”이라며 “우리는 반드시 AI를 윤리적으로 설계해야 함은 물론 (AI 반란에 대비할) 안전장치도 갖춰야 한다”고 주장했다.
호킹 박사는 국가들이 ‘AI 군비 경쟁’에 뛰어든 것처럼 보인다고 언급하기도 했다.
호킹 박사가 AI의 위협에 대해 경고한 것은 이번이 처음이 아니다.
그는 작년 영국 BBC방송과의 인터뷰에서 AI의 발전은 우리 인류의 종말을 말한다고 주장했고, 일론 머스크 테슬라 최고경영자, 스티브 워즈니악 애플 공동 창업자 등과 함께 AI 기술의 군사 목적 사용 금지를 요구하는 서한을 발표하기도 했다.
이날 인터뷰에서 호킹은 지구의 최대 위협으로 오염과 탐욕, 어리석음을 꼽기도 했다.
연합뉴스
28일(현지시간) AP통신과 영국 일간 데일리 메일에 따르면 호킹 박사는 최근 래리 킹과의 인터넷 토크쇼 인터뷰에서 “AI의 발전이 (인간의 미래에) 반드시 우호적일 것이라고는 생각하지 않는다”고 우려를 표했다.
그는 “AI는 인류보다 빠르게 진화할 수 있는 잠재력을 갖췄다”며 “AI가 스스로 진화할 수 있는 단계가 왔을 때 그들이 우리 인류와 같은 목표를 지니고 있을지는 확신할 수 없다”며 AI 로봇의 반란 가능성을 경고했다.
이어 “‘악당’(rogue) AI는 막기 쉽지 않을 것”이라며 “우리는 반드시 AI를 윤리적으로 설계해야 함은 물론 (AI 반란에 대비할) 안전장치도 갖춰야 한다”고 주장했다.
호킹 박사는 국가들이 ‘AI 군비 경쟁’에 뛰어든 것처럼 보인다고 언급하기도 했다.
호킹 박사가 AI의 위협에 대해 경고한 것은 이번이 처음이 아니다.
그는 작년 영국 BBC방송과의 인터뷰에서 AI의 발전은 우리 인류의 종말을 말한다고 주장했고, 일론 머스크 테슬라 최고경영자, 스티브 워즈니악 애플 공동 창업자 등과 함께 AI 기술의 군사 목적 사용 금지를 요구하는 서한을 발표하기도 했다.
이날 인터뷰에서 호킹은 지구의 최대 위협으로 오염과 탐욕, 어리석음을 꼽기도 했다.
연합뉴스
Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지