[경제] "인류 재앙 어쩌면 좋나"…올해 노벨상 탄 AI 대부의 경고

본문

추천! 더중플-노벨상 또 다른 주인공 AI

올해 노벨상은 파격의 연속이었습니다. 과학 부문에선 예상을 깨고 인공지능(AI) 분야 연구 학자들이 잇달아 수상자로 선정됐습니다. 컴퓨터과학(CS)은 비교적 역사가 짧은 학문이라 이번 AI학자들의 노벨상 수상은 매우 이례적인 일입니다.

오늘의 ‘추천! 더중플’은 팩플이 지난해 캐나다에서 직접 만난 제프리 힌턴 토론토대 명예교수(2024년 노벨물리학상 공동수상자) 인터뷰와 데미스 허사비스 CEO(2024년 노벨화학상 공동수상자)가 이끄는 딥마인드의 알파폴드가 어떻게 제약 분야를 혁신하고 있는지 분석한 리포트를 각각 소개합니다. 팩플은 이용자·소비자·투자자 입장에서 알아야 할 혁신 기술과 비즈니스에 대한 모든 것을 다룹니다. 더 자세한 내용은 더중앙플러스 구독 후 보실 수 있습니다.

17288183423409.jpg

제프리 힌턴 토론토대 명예교수가 지난해 10월 캐나다 토론토에 위치한 벡터연구소에서 중앙일보와 인터뷰하고 있다. 김남영 기자

올해 노벨상 과학 분야에선 4명의 AI 연구자가 수상자로 선정됐다. 이중 물리학상을 공동수상한 제프리 힌턴(76) 캐나다 토론토대 명예교수는 물리학 이론을 활용한 AI연구로 현 시점 챗GPT를 필두로 한 ‘생성 AI 시대’를 여는 데 큰 역할을했다. 그런데 그는 지난 8일 온라인 기자회견에서 “정부가 대기업들이 AI 안전 연구에 더 많은 자원을 투자하도록 유도해야 한다”고 말했다. 생성 AI 시대를 연 주역이 AI 위험성을 경고한 것이다.

힌턴 교수는 지난해 10월 캐나다 토론토에 위치한 벡터연구소에서 팩플과 진행한 단독 인터뷰에서도 AI가 초래할 위험에 대해 수차례 강조했다. 힌턴 교수에 따르면 AI가 초래할 위험은 ‘사회적 위험’과 ‘실존적 위험’ 2가지로 나뉜다. 이중 사회적 위험은 실업‧가짜뉴스‧차별과 편향‧전투 로봇을 의미한다. 예컨대 AI가 만든 가짜뉴스로 부정선거 가능성이 커지거나, AI가 일자리를 줄여 빈부격차가 심하게 나타나거나, AI 힘을 악용하는 전투로봇이 등장하는 종류의 위험이다. 그는 이보다 실존적 위험이 더 인류에게 위험하다고 설명했다. 실존적 위험은 AI가 인간보다 더 높은 지능을 갖게 돼 인류를 통제하고 싶어하는 상황을 말한다.

“두 살짜리 아이가 있다고 가정해 보자. 당신이 애한테 이렇게 말한다. ‘완두콩을 먹을 거니, 브로콜리를 먹을 거니?’ 아이는 둘 다 먹지 않아도 된다는 사실을 모른다. 완두콩은 브로콜리만큼 맛이 나쁘지 않으니 먹을 수 있다고 생각할 뿐이다. 그리고 당신이 그렇게 (둘 중 하나라도 먹게끔) 조종하고 있단 것도 아이는 모른다. 초지능이 당신보다 훨씬 더 똑똑해진다면, 두 살짜리 아이를 속이는 어른처럼 당신을 아주 쉽게 조종할 수 있을 것이다. 인간들이 ‘초지능은 똑똑하지 않다’고 여기게끔 초지능이 인간을 속이는 것도 가능하다.”

힌턴 교수는 이런 AI의 실존적 위험이 언제 현실로 닥칠거라고 생각할까. 그리고 눈부신 속도로 발전하는 AI를 제어하기 위해선 우리는 어떤 노력을 기울여야할까. 올해 노벨 물리학상 수상자이자 지난해 5월 구글을 퇴사하고 국내 언론과 첫 대면 인터뷰를 한 힌턴 교수의 생각을 팩플에서 들여다볼 수 있다.

0
로그인 후 추천을 하실 수 있습니다.
SNS
댓글목록 0
등록된 댓글이 없습니다.
전체 45,786 건 - 1 페이지