이사회, 17일 샘 올트만 CEO 전격 해임

임직원들 반발하자 닷새 만에 복귀 요청

MS와 협력하며 수익 사업에 속도 낼 듯

비영리기관 '오픈AI' 설립 취지와 상반

AI 위험성 높은데도 규제는 걸음마 수준

생성형 인공지능(AI) 챗GPT 개발로 돌풍을 일으킨 비영리기관 ‘오픈AI’는 이사회와 공동창업자이자 최고경영자(CEO)인 샘 올트먼이 격돌하며 심한 내홍을 겪었다. 지난 17일 이사회가 올트먼을 구체적인 사유를 밝히지 않고 해임하자 직원들은 집단 반발했다. 이사회 결정을 이해하기 어렵다는 이유에서다.

 

 샘 올트먼 오픈AI 전 최고경영자(CEO) [AP 연합뉴스] 
 샘 올트먼 오픈AI 전 최고경영자(CEO) [AP 연합뉴스] 

대다수 직원이 올트먼을 따라 마이크로소프트(MS)로 가겠다는 뜻을 밝히면서 오픈AI는 공중 분해될 위기를 맞았다. 이에 이사회가 한발 물러섰고 올트먼은 22일 오픈AI에 복귀하기로 했다. 외신에 따르면 올트먼은 이날 사회관계망서비스(SNS)에 올린 글에서 “오픈AI로 복귀하고 MS와 공고한 협력관계 구축을 기대하고 있다”고 했다.

오픈AI 내홍은 인류를 위해 첨단 기술을 써야 한다는 선한 의도와 수익을 추구하는 자본의 충돌이라는 점에서 흥미를 끈다. 오픈AI의 최종 목표인 범용 인공지능(AGI)을 개발하려면 거액을 투자받아야 하는 현실과 AI가 자본에 종속되면 ‘인류를 위한 AI 개발’이라는 본래 목적을 잃을 수도 있는 딜레마에서 균형점을 찾기 위한 진통으로 해석할 수 있다. AGI는 소프트웨어 개발과 복잡한 사고, 저작 활동 등 지금은 인간만이 할 수 있는 일을 대체할 만큼 고도화된 인공지능을 말한다. 유용하게 쓰인다면 인간의 노동을 획기적으로 줄여 더 나은 세상을 구현할 수 있다. 

오픈AI는 2015년 출범하며 인류의 이익을 위한 AI 개발을 기치로 내걸었다. 기업이 아닌 비영리 조직으로 출발한 이유는 설립 목적 자체가 ‘공익’이었기 때문이다. 그러나 좋은 의도만으로는 뜻을 이루기 힘들었다. AGI 개발에는 대규모 자금이 필요했다. 어쩔 수 없이 2019년 ‘오픈AI LP’라는 영리기업을 자회사로 설립했다. 다만 이익에 상한선을 두기로 했다. 초과 이익이 발생하면 비영리기관이자 모회사 격인 오픈AI에 기부하는 ‘이익 제한기업’이라는 개념을 도입했다.

주요 의사결정은 오픈AI가 내리고 투자자 수익도 원금의 100배로 제한했다. 이런 조건에서도 MS는 올해 초 오픈AI에 100억 달러를 투자해 오픈AI LP 지분 49%를 확보했다. 올트먼이 해임되자 즉각 그를 영입하려고 했다. 만약 올트먼이 오픈AI에 복귀하지 않고 MS로 갔다면 미래 AI시장 판도가 바뀌었을 것이다.

올트먼은 범용 AI의 자본 종속에 반대해왔다. 그는 언론 인터뷰에서 AI를 학습시킬 빅데이터를 모으고 첨단 기술을 개발하면 자금이 있어야 하지만 AGI를 영리기업이 독점하는 것을 원하지 않는다고 주장했다. 챗GPT 최신 버전을 발표할 때마다 AGI의 위험성과 규제 필요성을 강조한 것도 같은 맥락이다.

그러나 챗GPT가 선풍적인 인기를 끌고 상업화에 성공하며 태도가 바뀌었다. 말로는 여전히 AI에 대한 규제가 필요하고 AGI가 인류 번영을 이끌어야 한다고 하면서 수익 사업에 속도를 내고 있다. 큰손 투자자인 MS와 협력을 강조한 것도 같은 맥락으로 이해할 수 있다. 이사회와 갈등을 빚은 것은 그의 이런 행보와 관련이 있는 것으로 추정된다.

올트먼이 오픈AI의 설립 목적과 상반된 경영을 펼치는데도 임직원의 90% 이상은 그의 편에 섰다. 올트먼의 현실론에 힘을 실어준 셈이다. 결국 이사회가 손을 들었고 올트먼에 복귀 요청을 한 것으로 보인다. 이번 사태로 비영리 조직인 오픈AI의 지배구조가 개편될 것이라는 이야기도 나온다. 이는 AI 개발 역사에 중요한 변곡점이 될 수 있다. 공익을 위한 AI 실험은 용두사미로 끝나고 결국 AGI가 자본에 귀속되는 시발점이 될 수 있기 때문이다. 영국 이코노미스트도 지난 19일 “이번 사태가 AI 규제론자와 개발론자 사이의 갈등으로 드러난 사례”라고 평가했다.

 

지난 1월 23일 프랑스 남부 툴루즈에서 찍은 고도의 인공지능 ChatGPT와 운용회사 오픈AI 로고. 2023.01.23. AFP 연합뉴스
지난 1월 23일 프랑스 남부 툴루즈에서 찍은 고도의 인공지능 ChatGPT와 운용회사 오픈AI 로고. 2023.01.23. AFP 연합뉴스

범용 인공지능이 초래할 위험성에 대한 경고는 오래전부터 있었다. 테슬라 창업자이자 CEO인 일론 머스크는 선한 의도와 상관없이 AI로 인류 문명이 위험에 빠질 수 있다고 주장했다. 그는 올해 초 첨단 AI 개발의 한시적 중단을 촉구하는 공개 서안에도 서명했다. 딥러닝의 창시자인 제프리 힌튼는 AI를 핵무기에 비유하며 강력한 규제가 시급하다고 했다. 그는 인간을 능가하는 AI가 지구를 장악할 수도 있다는 비관론을 펼쳤다. 구글에 근무하며 AI 기술의 근간이 된 신경망 연구를 도운 걸 후회한다고도 했다. 한국은행은 지난 16일 발표한 보고서에서 AI 확산이 임금 불평등과 양극화를 심화시키고 소비자 불이익과 민주주의를 위협하는 수단으로 활용될 수 있다고 지적했다.

각국 정부는 AI의 위험성에 공감하면서도 규제 수준은 걸음마 단계다. AI 활용해 만든 콘텐츠에 식별 표식을 넣도록 하고 AI가 만든 가짜 뉴스를 규제하는 정도다. 지난 1~2일 영국 버킹엄셔주 블레츨리 공원에서 ‘AI안전 정상회의’ 열렸다. 한국을 비롯해 28개국이 참석했고 구글과 아마존, 알리바바 등 많은 기업이 동참했다. 네이버와 오픈AI도 참여했다.

이 행사에서는 ‘AI 블레츨리 선언’으로 불리는 9개 항의 ‘공동선언문’을 채택됐다. AI의 위험성과 이를 최소화할 방안이 담겨있다. 하지만 선언문은 선언문일 뿐 구속력은 없다. 뜻이 있는 개발자와 경영자들이 의기투합해 만든 ‘오픈AI’가 초심을 잃고 수익성에 기울고 각국 정부도 AI 규제에 미온적 태도를 견지하면 우리도 모르는 사이에 AI는 자본에 종속돼 많은 문제를 일으킬 수 있다.

 

 

 

 

이 기사를 공유합니다
저작권자 © 세상을 바꾸는 시민언론 민들레 무단전재 및 재배포 금지

개의 댓글

댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400

내 댓글 모음