스마티지와 글 읽기 – How AI Is Creating the Industries of the Future

 

안녕하세요, 여러분! 일타강사 저스틴입니다! 오늘은 정말 흥미진진한 주제, 바로 “AI가 미래 산업을 어떻게 만들어가는가”에 대해 함께 알아보겠습니다. 이 강의는 스튜어트 J. 러셀(Stuart J. Russell) 교수의 강연을 기반으로 준비했어요. 러셀 교수는 캘리포니아 버클리 대학의 전기공학 및 컴퓨터 과학 교수이자 AI 분야의 권위자로, AI 안전성에 대한 중요한 메시지를 전하고 계십니다. 자, 그럼 본격적으로 들어가 보죠!


1. AI란 무엇인가? 기본 개념부터

여러분, AI, 즉 인공지능이란 뭘까요? 러셀 교수님은 AI를 “목표를 달성하기 위해 기대되는 행동을 할 수 있는 지능적인 기계“로 정의하셨어요. 쉽게 말해, 기계가 사람처럼 생각하고 문제를 해결하는 거죠. 이 개념은 철학과 경제학에서 수천 년간 다뤄진 “올바른 사고”와 “올바른 행동”에 대한 고민에서 비롯된 거예요.

몇 가지 예를 들어볼게요. 알파고(AlphaGo)는 바둑 게임에서 이기는 걸 목표로 하고, 실제로 세계 챔피언을 이겼죠. 또, 내비게이션 앱은 목적지까지 가장 빠른 길을 찾는 목표를 가지고 있어요. 심지어 최근에는 주주 수익을 극대화하는 완전 자동화된 회사를 만드는 시도도 있다고 하네요. 이처럼 AI의 개념은 매우 일반적이고 강력합니다.

하지만 AI의 궁극적인 목표는 단순히 특정 작업을 잘하는 기계를 만드는 게 아니에요. 러셀 교수님은 “범용 인공지능(AGI, Artificial General Intelligence)”을 만드는 게 목표라고 하셨어요. AGI는 어떤 작업이든 사람만큼, 혹은 사람보다 더 잘, 빠르게 배워서 수행할 수 있는 AI를 말합니다. 모든 면에서 인간의 능력을 초월하는 거죠. 이게 바로 우리가 나아가고 있는 방향이에요.


2. AI의 역사: 처음부터 지금까지

자, 이제 AI가 어떻게 발전해왔는지 역사적으로 한번 훑어볼게요. 처음 20년, 그러니까 1950년대부터 1970년대 초반까지는 솔직히 어떻게 해야 할지 몰랐던 시기였어요. 러셀 교수님은 이 시기를 “엄마, 손 안 쓰고 자전거 탈 수 있어!”라고 표현하셨는데, 어린아이가 자전거를 손 안 쓰고 타면서 자랑하는 것처럼 뭔가 보여주긴 했지만 제대로 알지 못했던 시절이란 거죠.

1956년 다트머스 회의에서 AI라는 분야가 공식적으로 태어났어요. 이 시기에는 상징적 AI(Symbolic AI), 즉 개념을 상징(단어)으로 표현해 추론하는 방식과, 오늘날 신경망의 전신인 퍼셉트론(Perceptron) 같은 초기 머신러닝 시스템이 등장했죠.

1970년부터 2010년까지는 AI가 전통적인 공학 분야로 발전했어요. 논리, 확률, 통계, 최적화 같은 수학적 도구를 사용해 추론하고, 학습하고, 계획하는 시스템을 만들었죠. 1970년대 말과 1980년대 초에는 전문가 시스템(Expert Systems)이 큰 붐을 일으켰어요. 전문가의 지식을 시스템에 입력해서 문제를 해결하거나 질문에 답하는 방식이었죠. 많은 회사들이 이 기술을 “모든 문제의 해결책”으로 샀지만, 너무 경직되고 좁은 범위에서만 작동해서 1988년쯤 실패로 여겨졌어요. 이로 인해 “AI 겨울”이라는 시기가 왔어요. 10년 동안 AI에 대한 관심도, 투자도, 학생들도 줄어든 암울한 시기였죠.

하지만 1990년대부터 기술이 급격히 발전하기 시작했어요. 수학적 깊이가 더해졌고, 2010년경에는 딥러닝(Deep Learning)이 등장했죠. 딥러닝은 1950년대의 퍼셉트론이 엄청나게 커지고 발전한 형태로, 음성 인식, 컴퓨터 비전, 기계 번역 같은 문제를 성공적으로 해결하기 시작했어요. 그리고 요즘은 엄청난 양의 텍스트 데이터로 훈련된 “기반 모델(Foundation Models)”이 범용 AI의 가능성을 보여주고 있습니다.


3. AI 시스템의 작동 원리와 한계

AI 시스템을 간단히 상자로 비유해보죠. 이 상자에 키보드나 카메라 같은 센서 입력이 들어오고, 그걸 처리해서 행동을 출력해요. 예를 들어, 자동차의 핸들을 돌리거나, 화면에 답변을 표시하거나, 음성으로 말하는 거죠. 중요한 건 이 상자 안에 뭐가 들어가느냐예요. 그걸 어떻게 채울까가 AI 역사에서 계속된 질문이었어요.

1950년대에는 포트란(Fortran) 같은 프로그래밍 언어로 상자를 채웠어요. 프로그램을 만들고, 변형하고, 조합해서 진화를 모방하려 했지만, 실패했죠. 당시에는 지금보다 10의 18제곱 배 적은 계산 능력을 사용했기 때문에, 지금 이 방법을 다시 시도하면 결과가 다를지도 모른다고 교수님은 말씀하셨어요.

대부분의 역사 동안 우리는 지식 기반 시스템(Knowledge-Based Systems)을 만들었어요. 수학적 논리나 확률로 지식을 표현해서 추론하고 계획하는 방식이었죠. 특히 확률적 프로그래밍(Probabilistic Programming)은 불확실성을 다루는 확률 이론과 범용 프로그래밍 언어를 결합한 강력한 기술이에요. 예를 들어, 포괄적 핵실험 금지 조약(Comprehensive Nuclear Test Ban Treaty)을 모니터링하는 시스템을 이 기술로 20분 만에 만들었는데, 기존의 100년간 개발된 시스템보다 3배 더 나은 성능을 보여줬어요. 이 시스템은 한국 근처의 북쪽 이웃나라에서 핵폭발을 정확히 감지하기도 했죠.

반면, 현재는 딥러닝이 주도적이에요. 딥러닝은 거대한 회로를 만들어서 연결 강도를 조정하며 학습하는 방식이에요. 이 기술은 단백질 접힘(Protein Folding) 문제나 기후 시뮬레이션 같은 과학적 문제를 놀라울 정도로 해결했어요. 예를 들어, 단백질 접힘은 생명 현상을 이해하는 데 중요한 문제인데, 딥러닝으로 수억 개의 단백질 구조를 예측할 수 있게 됐어요. 기후 시뮬레이션도 기존 슈퍼컴퓨터로 몇 달 걸리던 걸 10만 배 빠르게 할 수 있게 됐죠.

하지만 딥러닝에는 한계가 있어요. 엄청난 양의 데이터가 필요하고, 회로 크기가 기하급수적으로 커져야 복잡한 문제를 해결할 수 있어요. 예를 들어, 아이에게 기린을 가르칠 때 우리는 만화 한 장만 보여주면 되는데, 딥러닝 시스템은 수백만 장의 사진이 필요해요. 또, 알파고 같은 프로그램은 특정 상황(예: 원형 돌 그룹)에서는 기본 개념조차 이해하지 못해서 쉽게 패배하기도 했어요.


4. AI의 응용 분야와 도전 과제

AI는 이미 여러 분야에서 놀라운 성과를 내고 있어요. 로봇공학, 자율주행차, 헬스케어, 교육 등에서요. 예를 들어, 아마존 창고에서는 수십만 가지 제품을 다룰 수 있는 로봇이 배치되고 있고, 자율주행 택시는 샌프란시스코에서 관광 명물이 됐죠. 하지만 자율주행차는 젖은 시멘트나 보행자를 끌고 가는 사고 같은 비정상 상황에 대처하지 못하는 문제를 보여줬어요.

헬스케어에서는 피부암 진단 앱이 큰 주목을 받았지만, 몇 년마다 “작동하지 않는다”는 결과가 반복되고 있어요. 의학은 단순히 데이터를 쌓는 것만으로 해결되지 않는 복잡한 영역이기 때문이죠. 반면, 교육에서는 AI가 큰 잠재력을 가지고 있어요. 챗GPT 같은 대형 언어 모델이 초등 교육 수준의 자료를 이해하고 설명할 수 있다면, 교육 효과를 2~3배 높일 수 있다고 러셀 교수님은 보셨어요. 11세에 대학 준비를 마친 아이들이 나올 수도 있다는 거죠.

하지만 이런 응용 분야들은 아직 상업적 이익이 크지 않아서 큰 AI 회사들이 적극적으로 뛰어들지 않고 있어요.


5. AI의 미래와 위험: 우리가 직면한 선택

여러분, AI가 인간의 모든 능력을 초월하면 어떻게 될까요? 러셀 교수님은 AI가 전 세계 모든 사람에게 중산층 수준의 삶을 제공할 수 있다고 하셨어요. 이는 전 세계 GDP를 10배 증가시키는 효과이고, 범용 AI의 가치는 최소 15경 달러(15 quadrillion dollars)에 달한다고 하네요. 더 나은 교육, 의료 등 많은 혜택을 줄 수 있죠.

하지만 문제는 인간이 AI를 통제하지 못하게 될 경우예요. 앨런 튜링(Alan Turing)조차 “기계가 통제권을 가질 것”이라고 경고했어요. 더 강력한 존재를 영원히 통제하는 게 가능할까요? 러셀 교수님은 이를 “도움 게임(Assistance Game)”이라는 수학적 문제로 풀 수 있다고 하셨어요. AI의 목표를 “인간의 최선의 이익을 위해 행동하되, 인간의 의도를 불확실한 상태로 두고 계속 배우는 것”으로 설정하면, AI가 인간의 통제 아래에 머물 수 있다는 거죠. 수학적으로 증명된 이 원칙에 따라 AI가 꺼질 수 있도록 설계하는 게 중요하다고 하셨어요.

그런데 현실은 어떨까요? 현재 우리는 안전하지 않은 AI를 만들고 초인간적 능력을 부여하려 하고 있어요. 오픈AI(OpenAI) 직원들조차 “안전에 신경 쓰지 않고 초인간적 AI를 만드는 데만 집중한다”고 내부 고발을 했어요. 러셀 교수님은 앞으로 10년 안에 AI가 인간 능력을 중요한 면에서 초월할 가능성이 높다고 보시며, 정부가 안전 규제를 강제하지 않을 것이라고 우려하셨어요. 최선의 경우 체르노빌 같은 재앙이 발생한 후에야 정부가 깨어날 것이고, 최악의 경우 돌이킬 수 없는 통제 상실이 올 수 있다고 경고하셨죠.


6. 결론: 안전한 AI를 설계해야 할 때

마지막으로, 러셀 교수님의 메시지를 정리해볼게요. AI는 인류에 엄청난 이익을 줄 잠재력이 있지만, 현재 우리가 가는 길은 인간 통제의 상실로 이어질 수 있어요. “AI를 안전하게 만들자”는 사후 대처가 아니라, 처음부터 “안전하게 설계된 AI”를 만들어야 한다는 거예요. 수학적으로 안전하고 유익함이 증명된 AI만이 우리가 따라야 할 유일한 길이라고 하셨죠.

 

About the Author
(주)뉴테크프라임 대표 김현남입니다. 저에 대해 좀 더 알기를 원하시는 분은 아래 링크를 참조하세요. http://www.umlcert.com/kimhn/

Leave a Reply

*