/블로그/AI·조직개발

AI·조직개발

AI는 우리를 더 똑똑하게 만드는가, 아니면 더 무지하게 만드는가

노벨경제학상 수상자 다론 아제모을루 MIT 연구팀이 수식으로 증명한 '지식 붕괴'. AI가 의사결정 품질을 높이면서도 동시에 사회 전체의 집단 지식을 소멸시킬 수 있다는 충격적 경고.

최익성·
MIT Economics · February 2026

AI는 우리를 더 똑똑하게 만드는가,
아니면 더 무지하게 만드는가

노벨경제학상 수상자 다론 아제모을루 연구팀이 수식으로 증명한 '지식 붕괴'의 경고

📄 원문 논문 — AI, Human Cognition and Knowledge Collapse (PDF)

"에이전트형 AI는 단기적으로 의사결정 품질을 높이지만,
장기적으로는 사회 전체의 집단 지식을 소멸시킬 수 있다."

— Acemoglu et al., MIT Economics, 2026년 2월
배경

논문이 던진 충격

2026년 2월, MIT 경제학부에서 묵직한 경고 하나가 울렸다. 노벨경제학상 수상자 다론 아제모을루(Daron Acemoglu)를 포함한 세 명의 연구자가 발표한 논문, "AI, Human Cognition and Knowledge Collapse"가 그것이다.

우리는 흔히 AI를 더 나은 결정을 돕는 도구로 이해한다. 틀린 말은 아니다. 그런데 이 논문은 한 가지 섬뜩한 가능성을 수식과 모델로 증명해 보인다.

⚠ 핵심 주장

에이전트형 AI는 단기적으로 인간의 의사결정 품질을 높일 수 있지만, 동시에 장기적 집단 지식 축적을 갉아먹어 궁극적으로 사회 전체의 지식이 소멸하는 '지식 붕괴(Knowledge Collapse)' 상태에 이를 수 있다.

메커니즘

왜 이런 일이 벌어지는가

이 논문이 주목하는 것은 지식의 구조다. 연구진은 인간이 활용하는 지식을 두 가지로 구분한다.

공통 지식

General Knowledge

공동체가 함께 쌓아온 보편적 이해. 의사가 질병의 메커니즘을 아는 것, 투자자가 금융 상품의 구조를 이해하는 것.

맥락 지식

Context-Specific Knowledge

개인의 고유한 상황에 관한 정보. 환자 개개인의 증상, 투자자 개인의 리스크 성향.

이 두 종류의 지식은 상호 보완적이다. 공통 지식이 풍부할수록 개인의 학습 노력이 더 가치 있어지고, 역으로 공통 지식이 사라지면 맥락 지식도 쓸모를 잃는다. 의사가 질병의 기초 원리를 모른다면, 환자 증상이 아무리 정확히 주어져도 치료는 불가능하다.

문제는 AI의 역할이다. 이 악순환이 이렇게 작동한다.

에이전트형 AI가 개인 맞춤형 맥락 정보를 제공 → 인간의 학습 노력을 대체(substitute)
인간이 스스로 배우려는 노력이 줄어듦 → 공동체의 공통 지식 축적이 멈춤
공통 지식이 줄면 맥락 지식도 의미를 잃음 → 학습 동기 더욱 하락
지식 붕괴(Knowledge Collapse)
수리 모델

'지식 붕괴'는 어떤 모습인가

논문의 수리 모델은 두 가지 균형점을 보여준다.

🏔️
고지식 균형

인간의 학습 노력이 유지되고 공통 지식이 축적되는 상태

🕳️
붕괴 균형

공통 지식이 소멸하고 AI 의존이 고착화된 상태

⚠ 완전 붕괴(Complete Collapse)

AI의 정밀도가 일정 임계값을 넘어서면 고지식 균형 자체가 사라지고, 초기 조건과 무관하게 사회 전체가 지식 붕괴 상태로 수렴한다.

이 임계값을 결정하는 두 가지 핵심 요인:

① 지식 공유 역량 — 공동체 내에서 인간이 생산한 지식이 얼마나 잘 축적·공유되느냐. 공유 역량이 클수록 지식 붕괴를 견뎌내는 한계치가 높아진다.

② AI 의존도 — AI의 정밀도가 높아질수록 인간은 더 쉽게 손을 놓는다.

복지 분석

AI의 복지 효과는 역설적이다

논문이 제시하는 복지 분석은 직관에 반한다. AI의 정밀도와 사회 복지의 관계는 단조롭지 않다.

💡 핵심 역설

적당한 수준의 AI는 복지를 높이지만, 일정 수준을 넘어서면 복지를 오히려 감소시킨다. 즉, 복지를 극대화하는 AI 정밀도의 최적 수준이 존재한다. 최고의 AI가 최선의 결과를 낳지 않는다.

연구진은 정책적 처방도 제시한다. 에이전트형 AI의 추천 정밀도를 의도적으로 제한하는 '정보 설계' 방식의 규제가 인간의 학습 동기를 보전하고 지식 붕괴를 예방하는 데 효과적일 수 있다.

✅ 정책 방향

AI를 막을 것이 아니라, 인간이 계속 배울 이유를 유지시켜야 한다. 답을 주는 AI보다 생각하게 만드는 AI가 장기적으로 사회에 이롭다.

리더십 시사점

리더에게 던지는 질문

이 논문이 조직 리더에게 전하는 메시지는 분명하다. AI 도구를 쓰되, 구성원들이 '생각하는 경험'을 잃지 않도록 설계하라.

편리함의 이면에서 조용히 사라지는 것들을 직시해야 한다.

  • AI가 답을 줄 때, 사람은 무엇을 배우고 있는가?
  • AI가 판단을 대신할 때, 리더는 무엇을 훈련하는가?
  • 문제를 직접 분석하는 힘은 조직 안에 남아 있는가?
  • 불확실한 상황에서 가설을 세우는 능력은 퇴화하지 않았는가?
  • 동료의 경험에서 배우는 집단 지성은 여전히 작동하는가?

이것이 논문이 경고하는 '지식 붕괴'의 실체다. AI를 잘 쓴다는 것은 AI에 의존하는 것이 아니다. AI를 쓰면서도 조직의 사고 근육이 퇴화하지 않도록 설계하는 것, 그것이 오늘의 진짜 리더십 과제다.

"최고의 AI가 최선의 결과를 보장하지 않는다.
인간이 계속 생각하게 만드는 설계가 진정한 경쟁력이다."

최익성 (Daniel Choi)
경영학 박사 · 조직개발 전문가

조직개발, 리더십, 조직문화 전문가. 20년간 기업 현장에서 조직의 변화와 성장을 이끌어왔습니다.

팔로우