Posts

박태웅의 AI 강의 2025 - 인공지능의 출현부터 일상으로의 침투까지 우리와 미래를 함께할 새로운 지능의 모든 것

박태웅의 AI 강의 2025 - 인공지능의 출현부터 일상으로의 침투까지 우리와 미래를 함께할 새로운 지능의 모든 것
  • 2022년 11월 30일 챗GPT가 나타났습니다. 그 후 불과 1년여 사이에 인공지능Artificial Intelligence: Al은 그야말로 눈부신 발전과 변화를 보여주고 있습니다. 전문가들도, 쏟아져 나오는 논문들을 따라 읽기가 벅차다고 말할 정도입니다. (24)
    1. 운영체제로서의 인공지능(AI as OS)
    2. 맥락 인터페이스(Contextual Interface)
    3. 파트너로서의 인공지능(AI as a Partner)
    4. 멀티모달(Multimodal)
    5. 더 저렴하게, 더 빠르게, 더 작게(Cheaper, Faster, Smaller)
    6. 인간형 로봇, 휴머노이드(Humanoid)
  • 인공지능이 하는 이런 일은 '잠재된 패턴들을 찾아내는 일'이라고 할 수 있습니다. 사람은 네다섯 살만 되어도 고양이와 강아지를 구분합니다. 말로 설명할 순 없지만, 거기에는 분명히 우리가 구분할수 있는 패턴이 있다는 뜻이지요. 그렇지 않으면 우리가 개와 고양이를 구분할 수 없을 테니까요. (80)
  • 말하자면 지금의 인공지능은 '어려운 일은 쉽게 하고 쉬운 일은 어렵게' 합니다. 잠재된 패턴이 없는 곳, 그러니까 확률이 필요하지 않은 분야에서는 어처구니없이 약합니다. 챗GPT는 인터넷에 올라와 있는 거의 모든 문서를 학습했다고 해도 과언이 아닐 텐데요. 이 말은 웹에 없는 정보에는 취약하다는 것을 의미합니다. 가령 다섯 자리 이상의 더하기, 빼기의 모든 셈 결과가 웹에 다 있는 것은 아니겠지요. 123,456,789+56,789 와 같은 셈의 결과들이 모조리 인터넷에 올라와 있을 리는 없으니, 챗GPT는 이런 셈을 잘하지 못합니다. (95)
  • 오픈AI는 최근 인공지능의 다섯 단계를 제시하기도 했습니다. (205)
    1. 챗봇 Chatbots
    2. 추론가 Reasoners
    3. 에이전트 Agents
    4. 혁신가 Innovatorsy
    5. 조직 Organizations
  • 스스로 개선을 해나간다면 그 인공지능이 어느 시점에서 인공일반지능, 즉 인간의 지능을 넘어서는 초지능이 되는지도 인간은 알 수 없게 됩니다. 그 시점을 포착할 방법이 없기 때문입니다. 테그마크 교수는 인공지능 업계가 이 모든 규칙을 위반함으로써 스스로 자율 규제할 능력이 없음을 입증했다고 비판합니다. 그는 인류가 절벽을 향해 달려가고 있지만 아직 절벽에 닿은 것은 아니며, 속도를 늦추고 경로를 변경해 추락을 피하고, 안전하고 정렬이 된 인공지능이 제공할 놀라운 혜택을 누릴 기회가 남아 있다고 말합니다. 그리고 이를 위해서는 절벽이 실제로 존재한다는 것, 그리고 절벽에서 떨어질 수 있다는 것을 인정해야 한다고 말합니다. (247)
  • 인공지능이 만든 데이터로 학습한 인공지능이 대를 거쳐 가면서 아주 쉽게 붕괴한다는 것을 확인한 다른 논문도 있습니다. 옥스포드대학교의 컴퓨터 과학자 일리아 슈마일로프 등이 쓴 〈재귀적 생성 데이터로 훈련한 인공지능 모델의 붕괴〉에 따르면 인공지능이 생성한 학습 데이터로 훈련한 인공지능은 마치 종의 근친교배와도 같이 붕괴해버립니다. (249)
  • 2020년까지 전 세계에서 발표한 AI 관련 원칙은 80여 개에 이릅니다. 그중 주요한 36개의 보고서에서 제시한 다양한 원칙을 47개로 분류해보았습니다. 그러자 가장 공통이 되는 여덟 개의 핵심 주제가 드러났습니다. 프라이버시/책임성/안전과 보안/투명성과 설명가능성/공정성과 차별 금지/인간의 기술 통제/직업적 책임/인간 가치 증진 전 세계적으로 인공지능의 윤리와 관련하여 다루는 핵심 주제는 대체로 위와 같은 여덟 가지라는 것입니다. 이 여덟 가지에 제대로 답할 수 있다면 우리는 안전한 인공지능을 향한 첫 번째 발걸음을 뗄 수 있다는 뜻이 됩니다. (275)
  • 인공지능 법안을 둘러싼 찬반양론이 보여주는 것은, 산업계가 거대 모델에 대한 규제가 필요하다고 때로 주장하고, 스스로 약속을 발표하기도 하지만 실제로 그 부담을 지는 것은 꺼린다는 것입니다. 또한 반대파들의 주장과 달리 이들이 실제 위험이 발생할 가능성에 대해서도 인식을 하고 있지 않은가 짐작할 만합니다. 힌턴 교수 등의 서한이 지적하듯이 "이러한 위험이 정말 공상과학소설에 불과하다면 기업은 이를 완화하기 위한 책임을 지는 데 아무런 문제가 없어야" 할 것이기 때문입니다. (347)
  • 슈미트가 하는 말은 '빠르게 행동하고 나중에 용서를 구하라'라는 실리콘밸리에 팽배한 태도를 반영합니다. 거대언어모델의 학습을 위해서 콘텐츠가 부족하다면 훔쳐서라도 사용을 하고, 성공한 다음 실력 있는 변호사를 구해 대응하면 된다는 것입니다. 실패하면? 그땐 물어줄 것도 없으니 그만이라는 것이지요. 에릭 슈미트의 발언은 실리콘밸리 슈퍼 엘리트들의 생각이 어떤 것인지를 보여주는 좋은 사례입니다. 그는 그중에서도 평판이 좋은 편에 속하는 엘리트입니다. (349)
  • 문제는 이들이 전 세계의 주요 거대 인공지능 개발을 도맡아 하고 있다는 것 입니다. 말하자면 우리는 모르는 사이에 이들의 사상을 강요당하고 있다고 할 수도 있습니다. '선출되지 않은 슈퍼 엘리트들'이 단지 인공지능 개발만 독점하고 있는 게 아니라, 사상까지 독점해가고 있는지도 모른다는 것이지요. 인공지능의 발전에 대한 국제적 규제와 규범의 확립이 대단히 시급하고 중요한 또 다른 이유라고 할 것입니다. (363)
  • 2023년 5월 30일에는 제프리 힌턴, 요슈아 벤지오, 데미스 하사비스, 샘 올트먼, 빌 게이츠, 오드리 탕, 한국의 신진우, 김대식 교수 등을 포함해 수백 명의 인공지능 과학자와 유명 CEO들이 AI에 대한 주의를 촉구하는 성명서에 서명했습니다. (...) 먼저, 이들이 서명한 성명서는 단 한 줄입니다. "AI로 인한 멸종 위험을 완화하는 것은 전염병이나 핵전쟁과 같은 다른 사회적 규모의 위험과 함께 전 세계적인 우선순위가 되어야 한다." 그만큼 합의가 중요했다는 것을 의미합니다. (399)

박태웅의 AI 강의 2025/박태웅/한빛비즈 20240930 420쪽 18,800원

  • 인공지능은 사람 간의 관계를 망가뜨릴지도 모릅니다. 인간은 사회적 동물입니다. 인간은 다른 사람과의 상호작용을 통해 번성하고, 고립되면 시들어갑니다. 챗봇은 많은 사람들의 동반자로서 인간을 너무 자주 대체할 것이며, 과학자와 의사들이 이러한 추세의 장기적인 영향을 이해할 때쯤에는 동반자 관계에서도 인공지능에 대한 우리의 의존도가 돌이킬 수 없을 정도로 깊어져 있을지도 모릅니다. 이것이 인공지능의 가장 중요한 도전 과제일 수 있습니다. 인류는 사상 유례없는 인간의 마음에 대한 실험을 마주하고 있습니다. 우리는 소셜미디어에서 한 차례 큰 실패를 했고, 지금도 그 대가를 지불하고 있습니다. 인공지능에서는 그러지 않을 수 있을까요? (400)
  • 정부가 과학과 기술 정책의 호흡을 바꾸지 않고, 후발 추격국의 태도와 전략을 버리지 못한다면 우리는 머지않아 다시 '눈 떠보니 후진국'이 되어버릴지도 모릅니다. (396)

인공지능에 대한 기대만큼 우려도 큽니다. 과거에서 배우지 못하면 인간은 훗날 멸절 위기를 맞으며 경을 칠 겁니다.