
[서울와이어 김종현 기자] 챗GPT 제조업체 '오픈AI' 최고경영자 등 세계적인 인공지능(AI) 전문가들이 AI 기술 진보가 인류의 멸종으로 이어질 수 있다고 경고하고 나섰다.
31일 영국 BBC방송에 따르면 최근 'AI 안전센터(The Centre for AI Safety)' 웹사이트에는 "AI에 의한 인류멸종 위험을 완화하는 것은 전염병이나 핵전쟁과 같은 사회적 규모의 위험과 함께 세계적인 우선순위가 돼야 한다"는 내용의 성명이 실렸다.
이 성명에는 챗GPT 제조업체인 오픈AI의 최고경영자 샘 알트먼, 구글 딥마인드 최고경영자인 데미스 하사비스, 앤트래픽 창업자인 다리오 아모데이 등이 모두 서명했다.
AI 안전센터 성명은 인류를 멸망으로 이끌 수 있는 여러가지 가능한 시나리오를 제시했다.
우선 AI의 무기화를 우려했다. AI에 의한 약물 발견 기술을 화학무기를 만드는데 전용할 수 있다는 것이다. 인공지능이 생성한 잘못된 정보는 사회를 불안정하게 하고 집단적 의사결정을 저해할 수 있다고 봤다. AI의 힘이 점점 소수에게 집중되면서 정부가 감시와 검열의 남용을 통해 협량한 가치를 강요할 수 있다는 점도 리스크로 거론됐다.
이 성명은 이미 초지능 AI의 위험성을 경고해온 제프리 힌튼 박사, 몬트리올 대학의 컴퓨터과학 요슈아 벤지오 교수도 지지했다.
하지만 뉴욕대학의 얀 르쿤 교수는 트윗을 통해 "이같은 종말론적 경고는 지나치게 과장됐다"고 했다. AI가 인류를 망칠 것이라는 우려는 비현실적이라는 것이다.
미국 프린스턴대의 어빈드 나라야난 교수는 "공상과학 소설과 같은 참사가 일어나는 시나리오는 비현실적"이라면서 "현재 AI의 능력은 이런 리스크를 실현하기엔 거리가 멀다"고 지적했다.
영국 옥스퍼드대 AI윤리연구소의 엘리자베스 레니에리스는 좀 더 현실적인 리스크에 관심을 기울여야 한다고 주문했다.
그는 "AI가 가짜정보의 양과 확산을 급가속시키면 현실에서 공공의 신뢰가 깨질 수 있고, 디지털 격차로 불평등이 가속할 수 있다"고 했다.
슈퍼 AI에 대한 우려는 이번만이 아니다. 테슬라 최고경영자인 일론 머스크 등 IT기업 총수들은 지난 3월 차세대 AI 개발을 중단하라는 공개 서한을 발표하기도 했다.
