AI 인공지능

샘 알트만, 나도 오픈AI가 어떻게 돌아가는지 모른다

주삼부칠 2024. 6. 6. 05:48

 

 

OpenAI는 세계를 변화시키는 AI 기술을 개발하기 위해 수십억 달러의 투자를 유치하였습니다.

 

그러나 한 가지 분명한 문제가 있습니다.

 

그것은 자사의 기술이 실제로 어떻게 작동하는지를 이해하는 데 여전히 어려움을 겪고 있다는 것입니다.

 

지난주 스위스 제네바에서 열린 국제전기통신연합(ITU) AI for Good Global Summit에서 OpenAI CEO 샘 알트만은 자사의 대형 언어 모델(LLM)이 실제로 어떻게 작동하는지에 대한 질문을 받았을 때 명확한 설명을 제공하지 못했습니다.

 

“우리는 해석 가능성 문제를 분명히 해결하지 못했습니다"라는 샘 알트먼의 이야기는 회사가 자사의 AI 모델이 종종 기이하고 부정확한 출력을 어떻게 만들어내는지, 그리고 그 답변에 도달하기 위해 어떤 결정을 내렸는지를 추적하는 방법을 아직 이해하지 못하고 있음을 의미합니다.

 

The Atlantic의 CEO 니콜라스 톰슨이 “그렇다면 계속해서 더 강력한 모델을 출시하지 말아야 한다는 주장이 되지 않겠느냐”고 물었을 때, 알트만은 당황하며 AI가 “일반적으로 안전하고 견고하다고 간주된다”고 반박하며 반응했습니다.

 

알트만의 만족스럽지 않은 대답은 새로운 AI 분야의 실제 문제를 강조합니다. 연구자들은 오랫동안 AI 챗봇이 질문에 거의 마법처럼 쉽게 반응하는 이면의 자유로운 ‘사고’를 설명하는 데 어려움을 겪어왔습니다.

 

그러나 AI의 출력을 AI가 학습한 원본 자료로 추적하는 것은 매우 어려운 것으로 드러났습니다. OpenAI는 회사의 이름과 기원에도 불구하고 AI를 학습시키는 데이터를 매우 비밀리에 유지하고 있습니다.

 

최근 영국 정부가 의뢰한 주요 과학 보고서에서 75명의 전문가 패널은 AI 개발자가 “자신의 시스템이 어떻게 작동하는지 거의 이해하지 못한다”고 결론지었으며, 과학적 지식은 “매우 제한적”이라고 밝혔습니다. “모델 설명 및 해석 가능성 기술은 연구자와 개발자가 범용 AI 시스템이 어떻게 작동하는지 이해하는 데 도움을 줄 수 있지만, 이 연구는 초기 단계에 있다”고 보고서는 말합니다.

 

다른 AI 회사들은 알고리즘의 인공 뉴런을 매핑하여 ‘블랙 박스를 여는’ 새로운 방법을 찾고 있습니다. 예를 들어, OpenAI의 경쟁사인 Anthropic은 최근 Claude Sonnet이라는 최신 LLM의 내부 작동을 자세히 살펴보았습니다. “Anthropic은 회사 설립 이후 해석 가능성 연구에 상당한 투자를 해왔으며, 모델을 깊이 이해하는 것이 모델을 더 안전하게 만드는 데 도움이 될 것이라고 믿습니다.“라고 최근 블로그 게시물에서 언급했습니다.


 

실제로 오픈AI도 그렇고 구글의 Gemini도 그렇고 AI 모델이 어떠한 과정을 거쳐 이러한 답을 내놓았는지에 대해 알지 못한 상태로 AI가 개발되고 있는데, 이 점이 바로 일론 머스크가 우려하는 인공지능의 리스크이다.

 

실제 영화 터미네이터의 스카이넷의 출현 가능성을 완벽히 부정하기 어려운 것이다.

 

하지만 이러한 것은 우리같은 일반인들에게는 운석이 지구에 충돌하면 어쩌지와 같은 막연한 사건이라 별로 신경쓸 일은 없다.

728x90