[Lobsters 요약] AI는 특이점 신화가 아닌 '사회 기술'로서 복잡한 정보 처리와 권력 관계를 재편한다
12
설명
이 글은 인공지능(AI)에 대한 지배적인 서사, 특히 '특이점(Singularity)' 신화에 도전하며, AI를 사회적 맥락에서 이해할 것을 제안한다. 저자들은 AI가 인간을 초월하는 지능을 가진 존재가 될 것이라는 환상에서 벗어나, AI를 언어, 시장, 관료제와 같은 기존의 '사회 기술'의 연장선상에서 분석한다. 이는 AI의 실제적인 영향과 한계를 보다 현실적으로 파악하고, 기술 발전이 사회 구조에 미치는 복잡한 상호작용을 탐구하는 데 중점을 둔다.
### 배경 설명
현재 인공지능에 대한 논의는 1990년대 공상과학 소설에서 비롯된 '특이점' 신화에 깊이 뿌리내리고 있다. 이 신화는 인공 일반 지능(AGI)이 인간 수준의 지능을 넘어 초지능으로 급격히 진화하여 인류의 조건을 근본적으로 변화시키거나 심지어 지배할 것이라는 예측을 담고 있다. 이러한 관점은 현대 생성형 AI의 개발 및 투자 전략에 막대한 영향을 미쳤으며, AI가 권위주의적 통제를 강화하거나 민주주의를 재편할 것이라는 등 광범위한 사회, 정치, 경제적 변혁에 대한 추측을 부추겨 왔다.
그러나 저자들은 이러한 예측이 기술의 실제 복잡성과 인간 사회 시스템의 불완전성을 간과하고 있다고 지적한다. 대신, AI를 도서관, 언어, 시장, 관료제와 같이 인간 사회 관계를 재편하는 '사회 기술'로 이해해야 한다고 주장한다. 이는 AI가 정보를 처리하고 복잡한 현실을 단순화하는 '거친 추상화(coarse-graining)' 방식을 통해 작동하며, 이 과정에서 필연적으로 정보의 손실(lossiness)과 새로운 권력 관계가 발생한다는 점을 강조한다.
### AI와 특이점 신화의 해체
이 글은 AI에 대한 대중적 논의가 '특이점'이라는 공상과학적 신화에 과도하게 의존하고 있음을 비판한다. 1990년대 버너 빈지(Vernor Vinge)의 저작에서 시작된 이 신화는 AGI가 초지능으로 진화하여 인류를 지배하거나 신과 같은 존재로 만들 것이라는 극단적인 비전을 제시한다. 저자들은 이러한 신화가 현대 생성형 AI의 개발자와 투자자들에게 깊이 각인되어 비즈니스 전략과 혁신 방향을 형성했지만, 이는 AI의 실제적 함의를 가리는 '신화적 외피'에 불과하다고 주장한다. AI의 미래는 전능한 AGI의 단순한 비전보다 훨씬 더 복잡하고 예측 불가능하며, 불완전한 기술과 불완전한 인간 사회 시스템 간의 충돌에 의해 형성될 것이라는 점을 강조한다.
### AI를 사회 기술로 이해하기
저자들은 AI, 특히 대규모 언어 모델(LLM)을 '문화적' 또는 '사회적' 기술로 재정의할 것을 제안한다. 이는 AI를 스스로 동기를 가진 행위자로 보는 범주 오류를 피하고, 대신 도서관이나 언어, 시장, 관료제와 같이 인간 사회 관계를 체계적으로 재편하는 수단으로 이해하자는 것이다. 허버트 사이먼(Herbert Simon)의 '인공물의 과학(sciences of the artificial)' 개념을 빌려, AI 모델이 복잡한 현실을 다루기 쉬운 '거친 추상화(coarse-graining)'로 축소하는 정보 처리 방식임을 설명한다. 이러한 관점은 AI를 산업 혁명 이래 지속되어 온 '긴 산업 혁명(Long Industrial Revolution)'의 또 다른 단계로 위치시키며, 기존 사회 기술과의 상호작용을 연구하는 새로운 틀을 제공한다.
### 손실성(Lossiness)과 권력 관계
AI 시스템의 핵심 특성 중 하나는 '손실성(lossiness)'이다. 모든 거친 추상화는 복잡한 현상의 핵심 측면과 역학을 포착하기 위해 세부 정보를 필연적으로 버리게 된다. 이는 AI 모델이 방대한 데이터 세트에서 통계적 패턴을 학습할 때, 평균적인 성능을 위해 드문 상황이나 소수 그룹의 정보를 희생할 수 있음을 의미한다. 이러한 정보 손실은 AI의 '맹점(blind spots)'을 만들고, 이는 특정 사회 집단에 이점을 주거나 불이익을 주는 방식으로 권력 관계에 영향을 미친다. 예를 들어, 19세기 시카고의 곡물 등급 분류 시스템이 농부들에게 불리하게 작용했던 것처럼, AI의 추상화 방식 또한 사회적 갈등의 새로운 원천이 될 수 있음을 지적한다.
### AI와 관료제의 상호작용
이 글은 AI가 관료제를 완벽하게 대체하거나 최적화할 것이라는 주장을 반박한다. 관료제는 단순히 상부의 지시를 효율적으로 실행하는 시스템이 아니라, 상충하는 목표들 사이에서 끊임없이 타협하고 조정하는 복잡한 정치적 과정이다. AI, 특히 LLM은 이러한 비계량적이고 비정형적인 의사결정 과정을 '최적화'할 수 없다. 오히려 AI의 도입은 새로운 형태의 '손실성'과 '맹점'을 초래하며, 기존 관료제 내의 권력 투쟁과 경쟁 관계를 재편할 것이다. 예를 들어, AI 기반 보고서가 하급 관리들의 성과를 평가하는 데 사용될 경우, '통계 조작(juke the stats)'과 같은 새로운 형태의 조작이 발생할 수 있다. 이는 AI가 관료제의 비효율성을 제거하기보다는 새로운 복잡성과 문제를 야기할 것임을 시사한다.
### 미래의 복잡성과 학제 간 협력의 필요성
저자들은 AI가 사회에 미칠 영향이 단순한 기술적 예측을 넘어선 복잡한 문제임을 강조하며, 컴퓨터 과학과 사회 과학(정치학, 행정학, 사회학, 법학 등) 간의 학제 간 협력이 절실하다고 주장한다. AI가 기존 사회 기술과 어떻게 상호작용하고, 어떤 새로운 손실성과 권력 관계를 만들어낼지 면밀히 연구해야 한다는 것이다. AI가 '특이점'을 가져올 것이라는 추측 대신, 현재 진행 중인 실제 사회적, 제도적 변화에 집중해야 한다고 역설한다. 이는 AI의 긍정적 활용 가능성(예: 조직 내 정보 통합)과 부정적 영향(예: 감시 강화, 이데올로기적 맹점 심화)을 모두 고려하며, 기술이 사회에 미치는 다층적인 영향을 이해하려는 노력으로 이어진다.
### 가치와 인사이트
이 글은 AI를 '마법 같은 해결책'이나 '인류를 위협하는 존재'로 보는 이분법적 사고에서 벗어나, AI를 사회 시스템의 일부로 통합하여 이해하는 새로운 프레임워크를 제시한다. 개발자와 IT 독자들에게는 AI 모델의 통계적 본질과 내재된 '손실성'을 인식하고, 모델이 생성하는 '거친 추상화'가 어떤 정보를 버리고 어떤 편향을 가질 수 있는지 깊이 고민하게 한다. 이는 단순히 기술적 성능을 넘어, AI 시스템 설계 시 사회적 영향과 윤리적 고려를 필수적으로 포함해야 함을 시사한다. 정책 입안자들에게는 AI가 기존의 관료제, 시장, 민주주의와 같은 사회 기술과 어떻게 상호작용하며 새로운 문제와 권력 역학을 만들어낼지에 대한 현실적인 통찰을 제공한다. 궁극적으로, AI의 개발과 적용이 단순히 기술적 진보가 아니라 사회적 선택의 문제임을 강조하며, 기술과 사회의 복잡한 상호작용에 대한 학제 간 연구의 중요성을 역설한다.
### 기술·메타
- 대규모 언어 모델 (LLMs)
- 인공 일반 지능 (AGI)
- 딥 뉴럴 네트워크 (Deep Neural Networks)
- 트랜스포머 아키텍처 (Transformer architecture)
- 컨포멀 예측 (Conformal Prediction)
- 거친 추상화 (Coarse-graining)
### 향후 전망
향후 AI 연구 및 개발은 '특이점'과 같은 거대 담론보다는, AI가 기존 사회 기술과 어떻게 융합되고 변형될지에 대한 실증적 연구에 더 집중할 것으로 전망된다. 특히, AI의 '손실성'과 '맹점'을 줄이기 위한 기술적 개선(예: 불확실성 정량화, 설명 가능한 AI)과 함께, 이러한 한계가 사회 시스템에 미치는 영향을 완화하기 위한 제도적, 정책적 노력이 중요해질 것이다. 경쟁 측면에서는, 대규모 모델의 중앙 집중화 경향과 소규모, 저비용 모델의 분산화 가능성 사이의 균형이 주요 변수가 될 수 있다. 커뮤니티 차원에서는 컴퓨터 과학자, 사회 과학자, 정책 전문가 간의 협력이 더욱 강화되어, AI의 사회적 함의를 다각적으로 분석하고 대응하는 통합적 접근 방식이 요구될 것이다. AI가 가져올 변화는 예측 불가능하지만, 과거 산업 혁명이 그러했듯, 사회적 조정과 적응을 통해 새로운 형태의 '집합 지능(anthology intelligence)'을 구축하는 방향으로 진화할 가능성도 있다.
📝 원문 및 참고
- Source: Lobsters
- 토론(Lobsters): [lobste.rs](https://lobste.rs/s/vlpdgd/ai_as_social_technology)
- 원문: [링크 열기](https://knightcolumbia.org/content/ai-as-social-technology)
---
출처: Lobsters · [원문 링크](https://knightcolumbia.org/content/ai-as-social-technology)
댓글 0
아직 댓글이 없습니다. 첫 댓글을 남겨 보세요.