본문 바로가기
글,책 정리

Meta's chief AI scientist says scaling AI won't make it smarter

by 청코너도전자 2025. 4. 28.
반응형

 

🚀 AI는 더 커질수록 더 똑똑할까? 메타 수석 과학자 Yann LeCun의 반론

세계 인공지능(AI) 산업의 핵심 원칙 중 하나는 '스케일링 법칙(Scaling Laws)'이다. 더 많은 데이터, 더 큰 모델, 더 많은 연산이 곧 더 똑똑한 AI를 만든다는 원리다. 이 개념은 OpenAI의 2020년 논문 *"Scaling Laws for Neural Language Models"*에서 체계적으로 정리되며 AI 업계의 황금률로 자리 잡았다.

하지만 최근, 이 절대 법칙에 균열이 가고 있다. 그 중심에 있는 인물은 **메타(Meta)의 AI 수석 과학자, 얀 르쿤(Yann LeCun)**이다.

📉 "스케일링은 더 이상 답이 아니다"

르쿤은 지난 주 싱가포르 국립대학교(NUS) 강연에서 "대부분의 흥미로운 문제는 스케일링에 굉장히 나쁘게 반응한다"고 강조했다. 단순히 모델의 크기나 연산량을 키운다고 해서 지능이 증가하지 않는다는 것이다.

그는 AI가 간단한 패턴 인식에는 뛰어날 수 있지만, 현실 세계의 모호하고 불확실한 문제에 접근하려면 전혀 다른 학습 방식이 필요하다고 주장한다.

“단순한 문제를 잘 푸는 시스템이 복잡한 문제도 해결할 것이라는 환상은 오류다. 그것이 바로 '스케일링 종교'를 만들어낸 셈이다.”

🤖 AI는 이제 ‘세계 모델’로 진화해야

르쿤은 기존의 거대 언어 모델(LLM)이 텍스트 패턴 예측에만 능하다고 지적하며, 진정한 인공지능은 다음과 같은 능력이 필요하다고 설명했다:

  • 물리적 세계에 대한 이해
  • 상식(Common sense)
  • 계획과 추론(Planning and Reasoning)
  • 지속적 기억(Persistent memory)
  • 새로운 과제를 빠르게 배우는 능력

이러한 특성을 갖춘 AI를 **월드 모델(World Model)**이라고 부르며, 그는 이러한 방식이 현재 스케일링 중심의 AI 개발을 대체할 열쇠라고 말한다.

📉 LLM의 한계, 데이터 고갈과 발전 정체

르쿤의 주장을 뒷받침하듯, 최근 AI 발전 속도는 둔화되고 있다. 훈련에 활용할 공개 데이터의 고갈과 과도한 GPU 의존도가 병목이 되면서, 단순 스케일링 전략은 한계에 다다른 상황이다.

또한, Scale AI CEO인 알렉산더 왕(Alexandr Wang)은 "스케일링이야말로 업계 최대의 의문점"이라고 했으며, Cohere CEO 아이단 고메즈(Aidan Gomez)는 "스케일링은 AI 향상에 있어 가장 멍청한 방식"이라며 르쿤과 유사한 견해를 밝혔다.

반응형