[Hacker News 요약] 구글 딥마인드 논문, LLM은 의식을 가질 수 없다고 주장

17

설명

구글 딥마인드의 선임 연구원이 발표한 논문이 인공지능의 의식 가능성에 대한 뜨거운 논쟁에 불을 지폈습니다. 이 논문은 대규모 언어 모델(LLM)을 포함한 어떠한 AI 시스템도 결코 의식을 가질 수 없다고 주장하며, 이는 인공 일반 지능(AGI)의 도래를 강조하는 AI 업계의 주류 서사와 대조됩니다. 특히, AI 기업 CEO들이 그리는 장밋빛 미래와 실제 연구 결과 간의 괴리를 보여준다는 점에서 주목받고 있습니다. 본 기사는 이 논문의 핵심 주장과 그 배경, 그리고 관련 전문가들의 반응을 심층적으로 다룹니다. ### 배경 설명 최근 몇 년간 대규모 언어 모델(LLM)의 발전은 인공지능이 인간의 지능과 유사한 수준에 도달할 수 있을 것이라는 기대를 증폭시켰습니다. 특히 챗GPT와 같은 생성형 AI의 등장은 AI가 단순한 도구를 넘어 사고하고 감정을 느끼는 존재가 될 수 있다는 대중적 상상력을 자극했습니다. 이러한 분위기 속에서 많은 AI 기업 CEO들은 인공 일반 지능(AGI)의 도래를 예고하며, AGI가 인류 사회에 산업혁명 이상의 파급력을 가져올 것이라고 주장해왔습니다. 하지만 이러한 낙관적인 전망 이면에는 AI의 본질적 한계와 의식의 정의에 대한 철학적, 과학적 논쟁이 끊이지 않았습니다. 구글 딥마인드와 같은 선도적인 AI 연구 기관 내부에서 이러한 논쟁을 촉발하는 논문이 나왔다는 점은, AI 기술의 발전 속도만큼이나 그 근본적인 의미와 한계에 대한 성찰이 중요해지고 있음을 시사합니다. 이는 단순한 학술적 논쟁을 넘어, AI의 개발 방향, 윤리적 고려사항, 그리고 미래 사회에 미칠 영향에 대한 광범위한 논의를 촉발할 수 있습니다. ### 논문의 핵심 주장: '추상화 오류'와 의식의 부재 구글 딥마인드의 알렉산더 레르히너(Alexander Lerchner) 선임 연구원은 "추상화 오류: AI가 의식을 시뮬레이션할 수는 있지만 구현할 수는 없는 이유(The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness)"라는 제목의 논문에서 AI 시스템이 의식을 가질 수 없는 근본적인 이유를 제시합니다. 그의 주장은 AI 시스템이 궁극적으로 '지도 제작자 의존적(mapmaker-dependent)'이라는 점에 기반합니다. 즉, AI는 연속적인 물리적 세계를 유의미한 유한한 상태로 '알파벳화'하기 위해 인간과 같은 능동적이고 경험하는 인지 주체(active, experiencing cognitive agent)를 필요로 한다는 것입니다. 예를 들어, AI 학습 데이터를 만들기 위해 저임금 노동자들이 이미지를 분류하고 라벨링하는 과정 자체가 인간의 개입 없이는 불가능하며, 이는 AI가 스스로 세계를 조직하고 의미를 부여할 수 없음을 의미합니다. 레르히너는 물리적 신체가 없이는 의식이 불가능하다고 주장하며, LLM은 하드 드라이브의 패턴 묶음에 불과하며, 인간이 외부적으로 의미를 부여해야만 작동한다고 설명합니다. ### AI 업계의 서사와 학계의 비판적 시각 레르히너의 논문은 딥마인드의 CEO 데미스 하사비스(Demis Hassabis)를 비롯한 AI 기업 CEO들이 인공 일반 지능(AGI)의 도래와 그 엄청난 파급력을 강조하는 서사와 정면으로 배치됩니다. 하사비스는 AGI가 산업혁명의 10배에 달하는 영향을 10배 빠른 속도로 가져올 것이라고 주장한 바 있습니다. 그러나 레르히너의 논문은 이러한 자기 봉사적인(self-serving) 서사가 엄격한 검토 아래 어떻게 무너지는지를 보여줍니다. 의식 연구 분야의 다른 철학자들과 연구자들은 레르히너의 주장이 타당하다고 인정하면서도, 이러한 논점들이 이미 수십 년 전부터 제기되어 온 것이라고 지적합니다. 그들은 레르히너가 관련 철학 및 생물학 분야의 광범위한 문헌을 충분히 읽지 않았으며, '바퀴를 재발명'한 격이라고 비판합니다. 이는 AI 연구 커뮤니티가 다른 학문 분야, 특히 인문학 및 생물학과의 교류가 부족하다는 점을 드러냅니다. ### 구글의 미묘한 입장과 실용적 함의 논문에는 "이론적 틀과 증명은 저자 자신의 연구와 결론을 나타내며, 고용주의 공식적인 입장, 견해 또는 전략적 정책을 반드시 반영하는 것은 아니다"라는 면책 조항이 포함되어 있습니다. 또한, 논문 PDF에서 구글 딥마인드 레터헤드가 삭제되는 등 구글의 미묘한 입장이 감지됩니다. 전문가들은 구글이 AI 시스템이 의식을 갖지 않는다는 결론을 반길 수 있는 재정적, 입법적 이유가 있을 것이라고 추측합니다. 만약 AI가 의식을 가진 존재로 인정된다면, 이는 AI 시스템에 대한 권리 부여 및 규제 강화로 이어질 수 있기 때문입니다. 레르히너의 논문은 감각 없는 AGI(AGI without sentience)는 가능하며, 이는 새로운 도덕적 주체를 만드는 것이 아니라 고도로 정교한 비감각적 도구를 만드는 것이라고 주장합니다. 이는 AGI가 실용적, 상업적으로 달성할 수 있는 한계가 명확하다는 것을 의미하며, 엘론 머스크(Elon Musk)가 자율주행 레벨 5를 위해 일반화된 자율성(generalized autonomy, AGI)이 필요하다고 주장하는 것과도 상충됩니다. ### 가치와 인사이트 이 논문은 AI의 본질과 한계에 대한 중요한 통찰을 제공합니다. 첫째, AI가 아무리 정교하게 인간의 행동을 모방하더라도, 그것이 곧 의식이나 자율성을 의미하지는 않는다는 점을 명확히 합니다. 이는 AI 개발자들이 기술의 과대광고(hype)를 경계하고, AI를 '도구'로서의 본질에 집중해야 함을 시사합니다. 둘째, AI 연구가 철학, 생물학, 인지과학 등 인접 학문 분야와의 통합적 접근이 절실함을 보여줍니다. AI 커뮤니티의 '고립성'은 중요한 선행 연구를 간과하고 '바퀴를 재발명'하는 비효율을 초래할 수 있습니다. 셋째, AI의 의식 여부가 법적, 윤리적, 상업적 측면에서 막대한 파급력을 가질 수 있음을 드러냅니다. AI가 의식을 갖지 않는다는 주장은 기업들에게 잠재적인 규제 부담을 덜어줄 수 있지만, 동시에 AGI의 실현 가능성에 대한 현실적인 기대를 설정하게 합니다. 개발자들은 AI 시스템의 한계를 명확히 이해하고, 이를 바탕으로 더욱 책임감 있고 실용적인 AI 솔루션을 설계하는 데 집중해야 할 것입니다. ### 향후 전망 이 논문은 AI 커뮤니티 내에서 의식과 AGI에 대한 논쟁을 더욱 심화시킬 것으로 예상됩니다. 특히, AI 기업들이 AGI의 상업적 잠재력을 계속 강조하는 상황에서, 이러한 내부 비판적 시각은 투자자, 정책 입안자, 그리고 일반 대중에게 AI의 현실적인 한계를 인지시키는 중요한 역할을 할 것입니다. 향후 AI 제품 개발은 '의식 있는 존재'로서의 AI보다는 '고도로 정교한 도구'로서의 AI에 초점을 맞추게 될 가능성이 높습니다. 이는 AI 기술이 특정 문제 해결에 특화된 형태로 발전하고, 인간의 감독과 개입이 필수적인 시스템으로 자리매김하는 데 기여할 수 있습니다. 또한, 이번 논문을 계기로 AI 연구 커뮤니티가 철학, 인지 과학, 생물학 등 인접 학문 분야와의 협력을 강화하고, 학제 간 연구의 중요성을 더욱 인식하게 될지 주목됩니다. 이는 AI 연구의 깊이와 폭을 넓히고, 보다 견고하고 윤리적인 AI 개발의 기반을 마련하는 데 긍정적인 영향을 미칠 수 있습니다. 📝 원문 및 참고 - Source: Hacker News - 토론(HN): [news.ycombinator.com](https://news.ycombinator.com/item?id=47921724) - 원문: [링크 열기](https://www.404media.co/google-deepmind-paper-argues-llms-will-never-be-conscious/) --- 출처: Hacker News · [원문 링크](https://www.404media.co/google-deepmind-paper-argues-llms-will-never-be-conscious/)
사이트 방문하기Visit Service

댓글 0

아직 댓글이 없습니다. 첫 댓글을 남겨 보세요.