ChatGPT에 대한 정보와 기사가 쏟아져 나오고 있다. 유튜브에서도 ChatGPT를 사용한 부업 아이디어, 가입 및 사용법에 대한 정보들, 일류에게 득인지 해인지를 논하는 여러 논설도 여기저기에서 읽어볼 수 있다. 그중에서 월스트리트 저널에 실린 최신 논설을 나눠본다. 여러 전문가들의 의견을 많이 접했지만 이 논설이 마음에 와닿았던 것은 무엇보다 우려나 우울한 결론으로 이끌어가지 않고 가볍고 단순하면서도 걱정 없이 읽을 수가 있다. 월스트리저널의 Andy Kessler의 사설을 번역해 보았다.

AI (Artificial Intellignce: 인공지능) 개발을 중단해야 한다는 주장은
근거 없는 공포와 과장된 주장에 근거하고 있다.
AI(인공지능)에 대한 최고의 교훈은 지난주 목요일(4월 20일)에 발사 4분 만에 중단된 SpaceX의 Straship rocket이 "예정에 없던 빠른 분해"로 상황종료. ChatGPT가 인류 멸망에 대한 추측을 불러일으키고 있는 가운데, 전문기술자들은 종이 클립 이론(Paper Clip Theory: 인공지능 시스템에 종이 클립 생산을 극대화하라고 지시하면 전 세계가 온통 종이 클립으로 가득 찰 것이라는 생각)에 영원히 집착해 왔다는 사실을 알아야 한다. 또 다른 버전의 이론인 '영원한 딸기밭(Strawberry Fields Forever)'은 인공지능이 딸기를 재배하기 위해서 지구상의 모든 흙과 땅을 사용한다는 내용이다. 무섭죠? "핼러윈" 영화처럼요.

이에 뒤따라서, 의사 결정 이론가인 Eliezer Yudkowsky는 최근 타임지에 "초인적으로 똑똑한 인공지능을 만들면 가장 가능성이 높은 결과"는 "말 그대로 지구상의 모든 사람이 죽게 될 것"이라고 썼다. 말 그대로 모든 사람이란다! 요즘 대부분의 낚시기사가 그렇듯이 말도 안 되는 소리이다. ChatGPT를 개발한 OpenAI의 CEO인 샘 알트먼은 팟캐스터 렉스 프리드먼에게 "그럴 가능성은 어느 정도 있다"고 말했습니다. 지금 당장이라도.
분명히 판도라의 상자가 열렸고 소프트웨어 코딩, 직장, 교육 등을 변화시킬 대규모 언어 모델의 모든 좋은 사용을 무시하는 악을 토해내고 있다. 안타깝게도 미국 정부내의 똑똑한 사람들은 아직도 타임지를 읽는 소수의 사람들인 것 같다. 그러니 규제 당국이 용감하게 그 상자를 닫아주기를...
이달 초, 상무부는 인공지능을 규제하는 절차에 착수했으며, 앨런 데이비슨 차관은 "인공지능이 책임감 있게 사용되도록 가드레일을 설치해야 한다는 것을 알고 있다"고 제안했다. 그건 나쁜 생각이다. 가드레일은 생일 파티에서 볼링을 치는 아이들을 위한 것이다. AI는 아직 초기 단계에 있으며 산업과 사회를 어떻게 변화시킬지 아직 알 수 없다. 지금 성급하게 판단하지 말아야 한다.

미국이 AI를 규제하면 그에 관련된 연구는 규제를 받지 않는 곳으로 옮겨갈 것이고, 바하마처럼 미래의 깔끔하지 않은 코더들이 계속 크랭크를 돌릴 수 있는 곳일 수도 있다. 아니면 더 나쁜 중국일 수도 있다. 구글의 CEO 순다르 피차이는 CBS의 '60분'에 출연해 글로벌 AI 규제를 원한다고 말했다. 엘론 머스크와 AI 전문가 그룹은 "거대한 AI 실험"의 즉각적인 중단을 촉구하는 공개서한을 작성했다. 따라잡아야 하는 사람들이 일시 중단을 요구하고 있다는 점이 흥미롭지 않나요?
부담스러운 새로운 규제는 필요하지 않다. 이미 허위 광고, 저작권 침해, 인명 위험에 대한 법률이 마련되어 있다. 아직도 구식 코볼로 프로그래밍된 기계를 사용하는 관료들이 이해하지도 못하는 초기 기술에 대한 규제를 만들어야 할 필요가 있을까? 하지만 이러한 우려를 불식시키기 위해 AI 개발을 위한 작은 규칙 하나를 제안하고 싶다: 킬 스위치를 포함할것.

모든 로켓 발사에는 사람을 위험에 빠뜨리기 전에 로켓을 폭발시키는 중단 버튼인 킬 스위치가 있다. AI에 대한 유일한 합리적인 규제는 유사한 킬 스위치를 요구하는 것이다. 소비자용으로는 "보스코"와 같은 안전 단어나 "포드 베이 문 열어, HAL"과 같은 문구를 입력하면 AI 동작을 즉시 중지할 수 있으며, 이는 가상의 방법으로 기계의 플러그를 뽑을 수 있다. Amazon Web Services 및 Microsoft Azure와 같이 대부분의 AI 연산이 이루어지는 데이터 센터에서는 이러한 스위치를 쉽게 구현할 수 있다.
우리는 항상 컴퓨터를 멈출 수 있는 기능을 가지고 있었다: 초기 컴퓨터에서는 Ctrl-C를 누르면 프로그램이 중지되었습니다. Windows PC에는 Ctrl-Alt-Delete가 있다. 나는 알렉사에게 "멈춰!"라고 자주 외친다. 인간이 제어권을 갖자. 알트먼 씨는 OpenAI가 킬 스위치를 구현했다고 제안한다. 똑똑하네.
대부분의 AI 시스템은 안전과 정렬, 즉 인간 복지에 맞춰 구축된다. 알트먼은 그 중요성을 강조한다. 이를 규제할 수 있을까? 글쎄... 그러나 규제는 바이든 행정부의 단명했던 허위 정보 거버넌스 위원회와 같이 정치적 도구가 될 수 있다(또는 그럴 가능성이 높다). 중국은 AI가 "사회주의의 핵심 가치를 반영해야 하며, 국가 권력의 전복을 포함해서는 안 된다"는 규칙을 제정하고 있다. 자유 세계는 이를 모방하고 싶지 않을 것이다.
기술 업계와 윤리학자들이 올바른 방향으로 나아갈 것이라고 믿을 수 있을까? 2018년 중국 과학자 허젠쿠이가 쌍둥이 여자아이의 게놈을 조작해 HIV에 내성을 갖게 했다고 주장하면서 유전자 편집 윤리 위반이 즉각적으로 비난받았다. AI에 대해서도 같은 반응이 예상된다.
인공지능의 발전을 막으려는 사람들은 인공지능으로 인한 인류의 실존적 위협에 대해 통곡할 것이다. 익숙한 이야기인가? 우리는 핵 겨울, 버뮤다 삼각지대, 지구 냉각, 온난화, 기후 변화, 도널드 트럼프, 그리고 이제 AI 죽음의 봇을 겪었다.
아침에 침대에서 일어나기 위해 목숨을 걸고 위협에 맞서야 하는 사람들은 항상 존재한다. 좋아. 그냥 걱정하게 둬. 하지만 혁신을 저해하는 규제는 답이 아니다. 로켓이 실패하면 AI 시스템도 실패한다. 규제보다는 킬 스위치가 있으면 더 안전할 것 같다.
댓글