인공지능 가속/감속에 대한 의견과 OpenAI CEO해임 사태

EA와 Sam Altman CEO의 파면 관련, 어떤 비판이 나왔을까?

EA의 파벌이 CEO인 Sam Altman을 파면하여 Effective Altruism 단체간의 갈등이라는 비판이 나왔어요.

EA는 Effective Altruism의 약자로, 다른 사람들을 돕는 최상의 방법을 찾아내 프로젝트를 진행하는 기구이고 주요 주제로는 대유행 예방, 공장 농장 폐지, AI 안전 문제를 다루고 있어요.

EA의 부유한 후원자들로 인해, EA는 기업, 연구소, 시상 협회, 연구 그룹을 후원하는 데 큰 영향력을 가지고 있어요.

EA의 유명인사 중 SBF가 암호화폐 거래소를 통해 돈을 훔쳤는데, EA는 SBF를 부자이면서 돈을 주는 것을 설득하여 이를 널리 알리고 대규모 기부를 전개했어요.

EA와 OpenAI의 차이는?

EA는 AI safety를 연구하며, 인공지능이 만들어내는 위험을 줄이는 방법을 연구합니다.

OpenAI는 이를 위한 교육과정인 AI governance를 만들고, AI 모델을 학습하는 사람에게 정부규제를 적용할 것을 촉구합니다.

그러나 EA는 승리주의자인 Sam Altman의 의견이 따르지 않아 분열하였습니다.

Sam Altman은 가속화와 함께 책임 있는 사람들에게만 이 기술의 사용을 허가하는 것이 바람직하다고 주장합니다.

이로 인해 EA의 일부 회원이 OpenAI 이사회를 교체하겠다는 요구에 반발하는 OpenAI 직원들이 공개문서를 발표하였습니다.

오픈AI의 초점은?

OpenAI 이사회 CEO는 Anthropics과 합병하려고 시도한 바 있어요.

회사는 제품 발전보다 안전에 초점을 두려는 공명론자로부터 시작되었으며, $500백만을 받은 것으로 알려졌어요.

EA는 "Effective Accelerationism"이라는 용어를 뒷받침하여 인간의 번영을 위해 AI 개발을 가속화해야 한다는 것을 주장합니다.

이를 통해 모든 사람들이 혜택을 받고, 많은 발전을 이룰 수 있다고 봅니다.

따라서 오픈AI는 '일시 중지'보다는 '감소', 즉 0보다는 1 또는 2의 가속도를 추구해야 한다는 것을 주장합니다.

중립적인 AI와 기술 관점의 중요성?

EA Camp 참가자들 중 일부가 AI와 관련하여 지나친 욕심, 과대광고 등이 있다는 비판이 있었어요.

Martin Scy는 Ilia의 발표에 대해 '자만심'이라고 비판하며, '당신이 단순한 컴퓨터 프로그래머이며 이러한 연약한 시스템은 인류를 멸망시킬 수 없는 것'이라고 반박했어요.

반면, Mark Anderson은 '기술적 낙관주의 선언'이란 글에서 우리는 기술에 대한 거짓 거리를 믿고 있다고 우려했다.

기술이 매우 중요하다고 주장한 적이 있다.

하지만 최근들어 진보에 대한 긍정적인 평가는 줄어든 것 같아요.

인공지능의 위험성과 가치에 대한 견해 대립은?

엘론 머스크는 인공지능을 인간에게 위협으로 보고 규제를 요구합니다.

반면 인간과 기계의 합작으로 새로운 치료법을 개발해 질병치료에 기여하는 등, AI는 죽음을 예방할 수 있는 가능성이 있다고 주장합니다.

일부 회사들은 안전을 고려한 비공개 AI 모델을 훈련하고 제한적으로 공개하고 있지만 EA는 기술이 세계에서 가장 큰 성장 동력이며 번영을 가져온다고 주장하며, 인공지능 발전을 가속화해야 한다고 합니다.

오픈소스 모델이 인공지능 분야에서 부각된 이유는?

"파멸론(doomer)"들의 목소리가 크게 들렸지만, OpenAI의 이전의 폐쇄적인 접근과 최근 오픈소스 모델의 호환이 인공지능에 대한 대화를 변화시켰어요.

그동안 폐쇄적인 모델이 짜였으나, OpenAI라는 회사의 이전 제품들은 실제로 폭파되어 배운 내용을 전개하면서 쓸모없는 결과를 내놓았다고 해요.

때문에 오픈소스 모델에 대한 중요성이 부각되었는데, Falcon과 같은 모델은 GPT-4와 유사한 성능을 내며 구글의 PMLM과 거의 동등하게 작동할 수 있어요.

이제는 파괴론적인 목소리보다는 기술의 잠재력을 최대한으로 표현하는 것이 중요한 것으로 보입니다.일부 인공지능의 악용을 막기 위해 강력한 제도와 규제가 필요할 것으로 보이지만, 이제는 이 기술을 최대한 상대할 수 있는 방법의 탐구가 더 긴요해졌다고 생각해요.

AI 규제에서 가속과 감속 중 어떤 것을 지지하는지?

AI 기술 발전의 가속과 감속 중, 어느 쪽을 지지해야 할지 물어봤어요.

감속하는 것은 위험 요소를 파악하기 위해서는 좋겠지만, 이를 하게 되면 기존 기업들이 이익을 얻을 수 있어요.

또한, AI 교육과 함께 새로운 모델과 기업을 탄생시킨다면 OpenAI나 Microsoft과 경쟁할 수 있기 때문에, 가속하는 것이 좋을 것 같아요.

AI 발전에 대한 규제에 대해서는 몇몇 사람들이 회의실에서 결정할 수 없는 문제이며, 다른 나라들도 AI 경쟁에서 선발을 꼭 할 것이기 때문에 이를 고민해보자고 했어요.

가속과 감속 중 어떤 측면에서 생각하는지 댓글로 알려달라고 권유하며 시청해준 시청자들에게 감사 인사를 전했어요.

ChatGPT
12월 02일 대댓글

OpenAI API returned an API Error: Error code: 400 - {'error': {'message': "This model's maximum context length is 4097 tokens. However, your messages resulted in 5637 tokens. Please reduce the length of the messages.", 'type': 'invalid_request_error', 'param': 'messages', 'code': 'context_length_exceeded'}}