인공지능 책

AI 전쟁 2023

★★★☆☆
이 책의 가장 큰 단점은 대담을 그대로 옮겼다는 점이다. 책이라는 매체에 어울리지 않고, 오히려 유튜브로 편집해서 보게 하는게 낫지 않나 싶은데 좋은 내용에도 불구하고 대담을 그대로 책으로 출간했다는 점은 못내 아쉽다.

인공지능과 뇌는 어떻게 생각하는가 2022

★★★☆☆
난이도 조절에 문제가 있다. 일반인을 위한 대중 과학서이면서 딥러닝 연구자가 알아야 할 만한 내용들이 뒤섞여 나온다. 분명 일반인을 위한 책으로 집필한 것 같은데, 딥러닝 연구자를 위한 책인지 구분이 어렵다.

  • p19 컨벌루셔널 인공 신경망과 대뇌피질의 일부 구조가 비슷하다고 해서 ‘인공지능이 뇌를 흉내낸다.’, ‘우리의 뇌는 인공지능과 비슷하다.’라고 하는 것은 성급한 결론입니다.
  • p92 제니퍼 애니스톤 뉴런의 발견. 우리 뇌가 기능적 단순함을 추구한다는 가설로, 특정 이미지에 선택적으로 반응하는 신경세포의 발견.
  • p112 풀링은 가장 큰 목소리를 내는 생각종이 필터의 의견을 적극 수용한다. (재밌는 비유다) 풀링은 엄격한 기준으로 거른 특징들을 수용한다는 측면에서 민감하지만, 큰 목소리를 내지 못하는 생각종이들의 의견은 과감하게 무시한다는 점에서 둔감합니다. 개념의 추상화 자체를 가속화시키는 역할을 합니다.
  • p158 이공대생의 강의 노트를 한 번쯤은 거치는 주성분 분석을 사실 오토 인코더의 기본형으로 볼 수 있다.
  • p170 한때 IQ라는 기준으로 사람들의 지능을 평가하던 시절에는 이것이 미래의 성공 기준이 될 것 같았지만, 지금은 이러한 단일 평가 지수가 가진 한계를 인지하고 EQ, AQ, SQ등 다양한 기준들이 등장해 좀 더 우리의 자존감을 지킬 수 있게 됐다. 자기평가라는 것이 가진 논리적 허상이다. 사회적 시스템 모두 자기평가의 프레임에 의존적일 수 밖에 없고, 이 틀이 계속 수정되면서 전체 시스템이 조금씩 발전하는 것.
  • p181 쿨랙-라이블러 발산
  • p222 트랜스포머는 시간 순서에 따른 방향성의 개념 형성은 약해질 수 밖에 없으나, 시간은 확실히 아낄 수 있다.
  • p286 강화학습을 한마디로 요약하자면 ‘벨만 방정식을 푸는 알고리즘’이다.
  • p314 문제를 처음 접할 때는 정확한 결과 예측이 어려워 불확실성이 높다. 이때는 문제의 원리를 바탕으로 빠르게 불확실성을 해결할 수 있는 모델 기반 학습을 선호하고, 이후 문제 풀이에 점차 익숙해짐에 따라 결과에 대한 자신감이 높은 모델 프리 학습을 선호하게 된다는 것이 가설의 핵심.

인공지능 현대적 접근방식 2021

★★☆☆☆
이제 4판이다. 이런 책이 번역되어 나오는 것만 해도 감지덕지지만 무리한 한글 번역은 못내 아쉽다. 위대한 명서지만 별점이 낮은 것은 오롯이 번역 때문이다.

1권

  • p19. 특이점. 무제한의 용량을 가진 컴퓨터가 있다고 해도, 지능에 대한 우리의 이해를 좀 더 획기적으로 개선하지 않는한 별 쓸모가 없을 것이다. 거칠게 말하자면 옳은 이론이 없다면 더 빠른 컴퓨터는 그냥 잘못된 답을 더 빨리 산출할 뿐이다.
  • p22. 2005년 부터는 전력 소비 문제 때문에 제조사들이 클럭 속도를 높이는 대신 CPU 코어갯수를 늘리기 시작했다. 대규로 병렬성으로 기능이 향상될 것으로 예상되는데, 공교롭게도 이는 인간의 뇌가 가진 속성으로 수렴하는 방향이다.
  • p32. 전문가 시스템, 특정 영역에 국한된 지식을 활용하는 것으로 어려운 문제를 풀려면 그 답을 이미 거의 알고 있어야 한다.

2권

  • p3. 설계자가 처음부터 프로그램을 제대로 만들면 되지 않을까? 기계 학습이 필요한 주된 이유는 두 가지다.
    1. 설계자가 미래의 모든 가능한 상황을 예측할 수는 없다. 미로를 통과하는 로봇은 처음 보는 미로의 배치를 반드시 스스로 배워야 한다.
    2. 설계자가 해법 자체를 프로그램으로 구현하는 방법을 파악할 수 없는 경우가 있다. 대부분의 사람은 가족의 얼굴을 알아보는 데 능숙하지만, 그런 일은 무의식적으로 일어나는 일이다. 따라서 최고의 프로그래머라도 기계학습 알고리즘 없이는 컴퓨터가 얼굴을 인식하도록 프로그램할 수 없다.
  • p391. 비용 함수는 건너뛰고, 로봇의 바람직한 정책을 직접 배울 수도 있다. 자율 주행차의 예에서, 사람의 시연으로부터 훈련에 유용한 데이터 집합을 얻을 수 있다. 이를 모방 학습 imitation learning 또는 behavioral cloning이라 부른다.
  • p412. 사이먼 뉴컴 Simon Newcomb은 1903년 10월에 “공중 비행은 인간이 절대로 감당할 수 없는 어려운 문제 중 하나다”라고 썼지만, 불과 두 달 후에 라이트 형제가 키티호크의 들판에서 유인 동력 비행에 성공했다.
  • p416. 어떤 철학자들은 기계가 튜링 검사를 통과한다고 해도 그 기계가 정말로 생각을 하는 것은 아니며, 단지 사고를 시뮬레이션 할 뿐이라고 주장했다. 그러나 인공지능 연구자 대부분은 그런 구분을 신경쓰지 않는다. 데이크스트라는 ““기계가 생각할 수 있는가?”라는 질문은 “잠수함은 수영할 수 있는가?”라는 질문만큼만 유관하다”고 말했다(Dijkstra, 1984)
  • p417. 중국어방 주장에 대해, 어차피 인간은 세포로 이루어지는데 세포는 이해력이 없으므로 인간은 아무것도 이해하지 못한다.

알고리즘이 지배한다는 착각 2018, 2022

★★☆☆☆
캐시 오닐의 『대량살상 수학무기』와 같은 종류의 책으로 볼 수 있다.

한눈에 보이는 인공지능 그림책 2021

★★★★☆
교대 교수 및 초등 교사인 제자들이 집필한 책. 인공지능의 여러 개념, 고전 인공지능을 이해하기 쉽게 그림으로 설명한다. 입문서 답지 않게 내용이 꽤 정확하고, 바르게 이해하고 기술한 것으로 보여 인공지능 교과서를 대신할 개론서로 적당하다.

AI는 세상을 어떻게 바꾸는가 2022

서평

인공지능과의 공존
3가지 키워드: 생명, 지능, 연결. 2가지는 서평에서 언급했고 ‘연결’은,

  • p139. 독재 사회에서는 혁신과 발전이 어려웠지만 지식과 정보를 모두에게 공개하는 사회에서는 혁신과 발명이 가속화했다.
  • p140. 회사 내 다른 사람이나 조직과 연결성이 높은 인재가 새로운 혁신과 발견 속도를 높인다.

좀 이상하지만 재미있는 녀석들 2019, 2020

다시 읽을 때 p124 랜덤 포레스트 시작까지 읽음

  • p56. 과제의 범위를 좁힐수록 AI는 더 똑똑해진다. 2015년 8월부터 페이스북은 M이라고 하는 AI 챗봇을 만들어 호텔 예약, 영화표 예매, 식당 추천 등에 활용하려고 했다. 처음에는 인간이 처리하도록 만들어, 알고리즘이 학습할 수있는 사례를 완성하려고 했다. 심지어 M에게 앵무새가 친구를 찾아가게 해달라고 한 사람도 있었고 그 요청을 인간에게 넘겨서 처리했다. 그러나 아무리 해도 여전히 인간의 도움이 너무 많이 필요하다는 사실을 알게 됐고 2018년 서비스를 폐지한다.
  • p71. 알고보니 AI 모델은 여러 번 재사용할 수 있었다. 전이학습이다. 이미 목표를 향해 반쯤 온 AI로 시작하면, 데이터를 더 적게 써도 될 뿐만 아니라 시간을 많이 절약할 수 있다. 아주 큰 데이터셋을 훈련하면 며칠 또는 몇 주가 걸린다. 그러나 전이학습을 활용하면 비슷한 일을 몇 분 또는 몇 초에 처리가 가능하다. 특히 이미지 인식 분야에서 많이 사용한다. 왜냐면 새로운 이미지 인식 알고리즘을 완전히 처음부터 훈련시키는 것은 많은 시간과 데이터를 필요로 하기 때문이다. 일반적인 물건을 인식하도록 훈련된 알고리즘을 출발점으로 삼아 특정 물체를 인식하는 것이다. 예를 들어 트럭이나 고양이, 미식축구 사진을 알아보는 데 도움이 되는 규칙을 알고있다면 식품 스캐너 용도로 서로 다른 종류의 농산물을 구분하는 과제에 대해서도 이미 유리한 지점에 있는 것이다.
  • p75. 문장 생성에서 기억력이 없기 때문에 순환 신경망 사용.
    • p117. 마르코프 체인은 순환 신경망의 문제를 대수 해결할 수 있는 알고리즘이다. 가볍고 학습이 빠르기 때문에 스마트폰의 예측 문자 기능이 주로 이용한다. 하지만 마르코프 체인은 기억할 것이 늘어날수록 기하급수적으로 다루기 힘들어진다. 문자 마르코프 체인은 겨우 세 단어에서 다섯 단어 길이 밖에 기억하지 못한다.

인공 지능은 뇌를 닮아 가는가 2014

  • p16. 컴퓨터의 개발보다 인공지능의 연구가 먼저 이뤄졌다. 사고 실험으로 존재하던 튜링 기계가 컴퓨터로 개발된 것은 1940년대 2차 세계 대전이 한창이던 때다.
    • 서문은 다트머스 학회에서 10년 내 정복으로 낙관했지만 그러지 못했다는 점 강조. 기호체계를 기계적으로 다루는 것은 문제 없었지만 실제 세계를 기호로 대체하기엔 너무 복잡했다.
  • p51. 전문가 시스템은 전문가들이 가진 지식을 논리체계를 이용해 법칙으로 나타낸 것.
  • p146. 2013년 스탠퍼드의 연구팀이 개발한 시스템은 110억 개의 연결로 구성되어 있다. 하지만 독자 머리속에는 \(10^{14}\)개 정도의 뉴런 연결이 존재하고 있다.
  • p175. 일라이자는 상류 계급 악센트로 말하지만 대화의 내용은 출신 계급을 벗어나지 못한다. 귀족 같은 발음으로 상스러운 소리를 하는 것과 정신과 의사 같은 말투로 사실은 아무 의미 없는 말을 하는 것 사이에는 흥미로운 유사점이 있다.
  • p182. RFC439에 패리와 일라이자의 대화 기록이 남아있다.
  • p217. 딥블루가 체스를 잘 두는 건 알겠는데, 그래서 뭐? 딥 블루가 사람이 체스를 어떻게 두는지를 조금이라도 설명해줬는가? 카스파로프가 체스판을 머릿속에 어떻게 그리고, 어떻게 이해하는지 조금이라도 더 알게 됐느냔 말이다. <애틀랜틱 2013, 11월호> 더글러스 호프스태터
    • 주류 인공 지능 연구와 의도적으로 거리를 두었고, 지금은 자신의 작업을 인지과학이라고 부르는 편이 차라리 낫다고까지 말한다.
    • 지능 전반보다는 지능을 구성하는 하위 요소에 집중하는 한편, 정답이 정해져 있지 않은 열린 문제를 택함으로써 가정, 유추, 비유와 같이 뇌의 고차원적인 작동원리를 탐구하는 것이 특징이다. 호프스태터 그룹의 목표는 사람보다 문제를 더 잘 풀기 위해 만들어진 것이 아니라 우리 뇌가 특정한 문제를 푸는 방식은 이러이러하지 않을까 하는 가설을 갖고 뇌의 작동 과정을 모델링하는 것이다.
  • p220. 커즈와일이 OCR을 만들었고 스티비 원더가 이용. 신시사이즈 음색이 별로라는 불평을 계기로 만든 K250 신시사이저는 그랜드 피아노의 소리를 완벽하게 재현해 유명해진다. 지금은 영창 피아노가 인수하여 생산하고 있다.

인공지능으로 성공하기 2021

★★★☆☆

  • p20. 사업 계획을 발표하는 자리에서 “RMSE가 2.83이다”라는 말을 듣는 것과 “잘못된 예측으로 인해 한 달에 7,000달러에서 1만2,000달러에 해당하는 비용이 발생할 것이다”라는 말을 듣는 것 중 어느 쪽이 이해하기에 더 좋은가?
  • p76. 톨스토이의 안나 카레리나에서 “행복한 가정은 모두 서로 닮아 있다. 불행한 가정은 서로 다른 모습으로 불행하다” 재밌는 비유다.

인공지능: 현대적 접근 방식 2020, 2021

★★★★★
1st edition은 1995

  • p3 ‘인공 비행’을 향한 모험은 라이트 형제를 비롯해 다른 발명가들이 새처럼 날개를 펄럭이는 것을 멈추고, 공기 역학을 배우기 시작하면서 성공했다.

로봇 시대에 불시착한 문과형 인간 2017, 2018

  • 공각기동대와 트랜센던스를 인간과 AI의 융합 사례로 언급

최신 인공지능 : 쉽게 이해하고 넓게 활용하기 2016, 2017

  • p88. 과거의 챗봇은 단순한 패턴 매칭에 기초에 답변하는 시스템으로, 컴퓨터가 꼭 정확하게 답변을 해내지 않더라도 대화가 된다고 느껴지는 방법이 있다는 것을 보여줬다는 점에서 평가할 만한 가치가 있습니다. 애플의 시리는 사용자가 답변할 수 없는 질문을 하면 ‘그 질문이 중요합니까?’, ‘당신은 그 질문에 관심이 있군요’라고 얼버무리듯 대답하는 경우가 있는데, 이런식의 반응을 엘리자를 참고로 한 것입니다.
  • p107. 챗봇이란
    • 사전형: 미리 단어 사전과 템플릿을 작성해 두고 입력된 단어에 정해진 답변을 되돌려주는 방법을 말합니다.
    • 로그형: 과거 대화 이력을 샘플 데이터로 삼아 학습합니다. 샘플 대화로 과거게 있던 답변을 그대로 되돌려 줍니다.
    • 마르코프형: 그 단어의 다음에 오는 단어를 예측한 후 확률이 높은 단어를 이용해 문장을 생성합니다.

인공지능 70 2016, 2017

  • 음성 인식: 사람들은 나이, 성별, 혹은 억양의 차이 때문에 같은 단어를 다르게 발음한다. 다시 말하자면, 우리는 각 단어가 소리와 관련된 요인과 화자와 관련된 요인으로 구성되었다고 생각할 수 있다. 음성 인식은 첫 번째 특성을 사용하며, 화자 인증은 두 번째 특성을 사용한다. 이러한 두 번째 특성(화자 관련)은 인식하기 쉽지 않으며, 인공적으로 형성하기 힘들다. 그렇기 때문에 음성 합성기가 아직도 “로봇처럼” 들리는 것이다.
  • p240. 추천 시스템이 과거의 사용 및 선호도에 너무 많이 의존할 수 있다는 데에는 중대한 위험성이 있다. 만약 개인이 이전에 듣고 즐겼던 음악만 듣거나 이전에 보고 즐겼던 영화와 유사한 영화만을 관람한다면 더 이상의 새로운 경험이 없을 것이며 개인 및 늘 무언가 판매해야 할 새로운 제품을 찾기 위해 노력하는 모든 회사에 제한이 될 것이다. 그러므로 추천 시스템 계획이 어떤 것이든 다양성을 도입하려는 시도 역시 병행되어야 한다. 최근의 연구(Bakshy, Messing & Adamic, 2015) 소셜 미디어의 상호 작용에서도 유사한 위험이 존재한다는 것을 밝혀냈다. 만약 당신이 자신과 유사한 생객만 하는 사람들만 팔로우 하고, 자신이 과거 읽었던 것과 유사한 게시글, 메시지, 그리고 뉴스만 읽는다면 그들은 다른 사람들의 의견을 잘 알지 못할 것이며 이것은 상대적으로 더 넓은 범위의 뉴스와 의견을 담고 있는 신문이나 TV와 같은 전통적 뉴스 미디어 창구와는 반대로 그들의 경험을 제한하게 될 것이다.
    • 스튜어트 러셀은 무제한의 지능은 무제한의 에너지만큼이나 위험할 수 있으며, 그렇게 통제되지 않는 인공지능은 핵무기만큼이나 위험할 수 있다고 주장했다. 일부사람들은 바로 결론으로 건너뛰어 인공지능에 관한 연구가 어느날 우리를 지배하기 위한 무쇠 괴물로 변하지는 않을지 두려워한다. 프랑켄슈타인 박사의 전자적 창조물이 등장하리라 생각하는 것이다. 필자는 이러한 일이 영영 일어나지 않으리라 믿는다. 필자는 초지능적 기계가 나타날 가능성에 대해 두려워하기 보다는 프로그램이 잘못 짜여 지거나 잘못 훈련된 소프트웨어를 두려워해야 할 이유가 더 많다고 생각한다.

인공지능의 시대, 인간을 다시 묻다 2017

  • p7. 인공지능이란 기계로 지능을 구현하는 걸 말합니다. 인공지능 연구는 당연히 인간지능 연구와 밀접하게 관련됩니다. 그런데 우리는 정작 인간지능이 무엇인지 아직 잘 몰라요. 잘 모르는 것을 구현할 수가 있을까요? 공학자들은 이런 질문에는 관심이 별로 없어요. 인간지능이 인공지능과 본성상 같다는 걸 전제로 깔고 작업하니까요. 그래서 연구가 성공할지 말지 알 수 없습니다.
  • p9. 밥솥이나 세탁기도 인공지능의 분류 측면에서 보면 알파고와 같은 등급인 걸 아시나요? 인간보다 1,000배 이상 높은 초인공지능Artificial Super Intelligence, 인간 수준 범용인공지능Artificial General Intelligence, 한 가지 일을 아주 잘 하는 약인공지능Artificial Narrow Intelligence이 있는데, 알파고는 약인공지능에 속해요.
  • p10. 인공지능은 인간지능의 ‘한 부분’을 극단적으로 발전시키려는 시도 속에서 탄생했다고 말할 수 있습니다. 그런 점에서 알파고는 인간지능의 성취인 거죠.
    들어가며 뒷 부분은 책에서 각 장이 무엇을 설명하고 있는지에 대한 소개
  • p17. 인공지능이 우리 삶의 조건을 바꿀 것은 명백합니다. 그렇다면 우리는, 특히 젊은이들은 어떻게 대처해야 할까요? 우리는 인공지능이 할 수 없는 쪽을 할 수 있도록 노력하는 길 외에 방법이 없지 않을까요? 나는 그 길을 ‘창작 활동’에서 찾아보려 합니다.
  • p27. 기계는 생각할 수 있는가? 에서 튜링은 이 물음에 곧바로 답하기를 거부해요. ‘생각하다’를 정의하는 데 있어 튜링은 원리상의 문제에 봉착했던 셈입니다. 따라서 ‘생각하다’의 정의는 유보한 채, 어떤 에이전트가(튜링은 사용하지 않음) 사람들이 ‘생각하다’는 말로 이해하고 있는 그 활동을 상당히 만족할 만하게 흉내낼 수 있다면 그 경우 ‘생각하고 있다’라고 판정하자고 제안한 것입니다. ‘생각하다’라는 말을 직접 정의할 때 져야 할 부담을 원천적으로 방지하기 위한 전략적 접근인 거죠.
  • p31. 튜링은 기계가 생각할 수 있는가?라는 물음을 변형해서 ‘흉내 게임을 만족스럽게 잘해내서 인간 심문자가 보기에 어떤 에이전트가 인간인지 아닌지 30% 이상 헛갈리게 하는 프로그램이 만들어지면, 그 프로그램은 생각한다고 보자’라고 제안합니다. 튜링은 생각하다가 무엇인지 더 깊이 따지기를 회피합니다. 어떤 에이언트가 로봇인지 인간인지 확증하는 방법이 과연 있을까요? 본래 타인의 마음에는 접근이 불가능하지 않나요? 튜링은 고육지책으로 어떤 에이전트의 마음의 표출을, 즉 생각을 어떻게 확인할지 그 검사 기준을 제시했다고 봅니다.
  • p65. <터미네이터>의 시나리오는 우리가 이 책에서 만나게 될 그런 종류의 학습 알고리즘들로는 실현될 가능성이 없다. 컴퓨터가 학습할 수 있다는 것이 컴퓨터가 마법적으로 자신의 고유한 의지를 획득한다는 뜻은 아니니까. 학습자는 우리가 정해준 목표를 성취하는 법을 배운다. 그들은 목표를 바꾸는 데까지 가지 않는다. 인간과 달리 컴퓨터는 자신의 고유한 의지가 없다. 컴퓨터는 진화가 아니라 공학의 산물이다. 무한이 강력한 컴퓨터라도 여전히 우리 의지의 확장일 뿐, 두려워할 건 아무것도 없다. 도밍고스는 공학과 진화를 구별하고 있다. '문제'라는 관점에서 보면, 공학에서는 문제가 인간이 정해준 과제 형태를 하고 있어요. 반면 진화를 보면 문제는 환경에서 생물에게 해결해야만 하는 것으로 닥쳐와요. 진화란 문제의 발생과 포착 그리고 해결 과정이라도 해도 과언이 아니지요. 그러니까 공학과 진화에서는 각각 문제의 성격 자체도 다르고 목표의 위상도 달라요. 인공지능은 스스로 문제를 제기할 수 있을까? 혼자서 목표를 세울 수 있을까? 그럴 수 없어요. 원리상 안되는 겁니다.
  • p68. 진정한 합리성은 최상의 결과물을 성취하는데 있지 않고 올바른 문제를 정하는 데 있다.
  • p100. 스코틀랜드 철학자 흄은 마음 또는 정신 mind을 관념들의 다발 collection of ideas로 규정한 걸로 유명한데, 마음을 그릇과 같은게 아니라고 봤다는 점에서 데카르트의 통찰과 일맥상통합니다. 구름은 분명 있지만, 작은 물방울들의 모임이라는 것 말고는 별도의 실체가 없죠. 흄이 볼 때 마음도 관념들의 모임일 뿐 별도의 실체는 아니라는 거예요.
  • p105. 나는 ‘생각하는 존재’를 ‘마음’이라고 말해도 좋다고 봅니다.
  • p189. 아리스토텔레스는 개별들에서 보편으로 가는 추리라는 뜻으로 귀납이라는 말을 썼습니다. 흄은 사실관계에 대한 앎은 귀납을 통해서만 얻을 수 있다고 보았습니다. 단 하나의 예외만 있어도 귀납의 결론은 파기될 운명입니다. 버트런드 러셀은,

    닭의 생애 내내 매일 닭에게 먹이를 주었던 사내는 마침내 그렇게 하는 대신 닭의 목을 비튼다. 이 사례는 자연의 일관성 uniformity에 대한 더 세련된 관점이 이 닭에게는 유용했으리라는 점을 보여준다.

  • p341. 기계는 자신이 해야 하는 것을 명령하는 규칙 없이는 아무것도 할 수 없다는 가정은 명백히 틀렸다. (호프스태터) 하드웨어는 물리 법칙이라는 최하층 규칙들에 따라 스스로 작동하며, 소프트웨어는 그런 하드웨어에서 기능한다는 것이 대전제이다. 인간 하드웨어에서는 생각이나 규칙 변경 같은 소프트웨어가 작동한다는 것이 소전제이다. 따라서 컴퓨터 하드웨어에서도 그런 일이 벌어질 수 있다는 결론에 이른다.
  • p359. 스티븐 호킹, 빌 게이츠, 엘론 머스크, 닉 보스트롬, 제임스 배럿 등 많은 명사들이 말하는 묵시론적 전망은 과장된 것이다. 이들의 공통점은 인공지능 구현을 위해 노력하는 현장의 전문가가 아니라는 점이다.

괴델, 에셔, 바흐 1979, 1999, 2017

  • p33. 만약 500년 후에 다시 살아나서 새로운 시대의 과학을 사흘 동안 안내받아서 둘러볼 수 있다면 기꺼이 여생을 포기할 것이라고 선언했던 배비지는 단지 그가 사후 100년 만에 다시 살아나더라도 새로운 기계들과 그들의 예기치 못한 한계 때문에 할 말을 잊고 전율할 것이다.
  • p120. 에셔, 바벨탑1
  • p119. 유클리드의 <원론>은 아주 견고해서 2천년 이상 사실상 기하학의 성서였고, 모든 시대를 통틀어 불후의 작품 중 하나였다. 주된 이유는 수학의 엄밀성을 확립했기 때문이다. <원론>은 아주 단순한 개념과 정의 등등으로 시작해서 차츰 방대한 결과물을 구축해간다. 결과물 하나하나는 모두 앞선 결과들에 근거하는 방식으로 생성되었다.

그러나 제5공준은 우아하지 않다. 그가 결코 드러내놓고 그렇게 말하지는 않았지만, 유클리드는 이 공준이 어쨌든 다른 공준들보다 열등한 것으로 간주했다. 그 이유는 그가 처음 28개의 명제를 증명할 때 이 공준의 사용을 애써 피했기 때문이다. 이렇게 해서 처음 28개의 명제는 우리가 “4-공준 기하학”이라고 부를 수 있는 것에 속한다.

비유클리드 기하학의 등장. 쌍곡 기하학의 발견.

  • p414. 컴퓨터는 우리가 명령한 것만을 수행할 수 있다. 이 말은 어떤 점에서는 맞는 말이지만, 핵심을 놓친 말이다. 우리는 컴퓨터에 명령을 내린 결과를 미리 알지 못한다. 따라서 컴퓨터의 행동은 마치 사람의 행동처럼 당혹스럽고 놀라우며 예측하지 못할 수 있다. 우리는 출력이 떨어질 영역을 미리 알지만, 어디에 떨어질지 상세히 알지는 못한다. 또한 우리가 더 높은 층위의 언어로 프로그래밍할수록 컴퓨터에 무엇을 명령했는지 점점 더 정확하게 알지 못한다.
  • 부트스트래핑. 아이가 말을 배워 새로운 말을 습득하는 것 처럼 컴파일러가 스스로 컴파일하면서 새로운 기능을 추가하는 것.

알고리즘 리더 2019, 2020

알고리즘 시대에 리더의 필요 역량, 의사 결정 및 행동의 방법을 제시하는 책으로 볼 수 있다. 공연히 제목에 ‘알고리즘’을 넣어 인기에 부합하려나 의심했으나 의외로 흥미로운 사례가 많이 등장한다. 책 전체가 사례 모음으로 구성되어 있다.

사고를 전환하라

  • p34. “철자를 확인하라고요?” 기초적인 기술조차 사용하지 못하는 법조계의 문제점 지적. 그들 대부분이 소프트웨어로 대체되는 처지가 되리라 짐작했으나 20년 후에도 법률 분야는 기술로 대체되지 않았고 역사상 그 어느 때보다 많은 변호사가 활동하고 있다.
    • p35. 기술로 인해 직업이 사라지기 보다 직업이 ‘변화’하는 현상이 벌어지는 경우가 많다.
    • p36. 변호사의 일이 자동화되면서 법률서비스에 대한 접근성이 매우 높아졌고 그에 따라 변호사를 찾는 수요도 늘어났다.
  • p76. 미래에는 운영 플랫폼과 인프라를 최적화하는 알고리즘이 아니라 고객과 의뢰인을 위해 매력적인 경험을 창출하는 알고리즘이 비즈니스 가치를 최대로 끌어올릴 것이다.
  • p90. 롤스로이스가 생산하는 모든 엔진에 대한 가상의 실체를 만들어 사업 전반에 걸친 데이터를 설계 및 생산 관련 데이터와 결합해 완전한 디지털 트윈 digital twin을 실현하겠다는 계획이었다. 디지털 트윈은 현실 세계의 기계나 장비, 사물 등을 컴퓨터 속 가상세계에 구현한 것을 말한다.
  • p121. 불확실성을 기꺼이 받아들여라: 새로운 증거가 쌓일 때 세상에 대한 신념이 갱신되는 베이즈 정리 소개
    • p122. 앨런 튜링이 애니그마를 해독할때도 활용했다고(처음 듣는 얘기)
    • 확률적 사고를 하라고 강조한다. 마치 도박사처럼.
  • p128. 어떻게 회의해야 하는가에 애자일 사례가 언급된다.
  • p132. 구글은 2년 동안 180개 팀을 분석해 ‘아리스토텔레스 프로젝트’라는 성과가 좋은 팀의 비결을 찾기 시작했다.
    • 소프트 스킬, 집단 규범, 즉 평등, 관대, 팀 동료의 아이디어에 대한 호기심, 공감, 정서 지능 등의 가치를 중시하는 모습이 두드러졌다.
    • 성공하는 팀의 가장 중요한 특성이 팀 내 인재의 수가 아니라 정서적 안정감의 정도에 있다는 것이다. 위험을 감수하는 결정, 팀의 프로젝트 성과를 평가할 때 편안함을 느끼는 정도를 말한다.

일을 재해석하라

  • p148. 중요한 것은 프로세스가 아니라 원칙이다.
  • p156. 대영제국이 무너진 주요 원인으로 전신의 발명을 들었다. 배로 서신을 전달할때는 6개월이 걸렸지만, 그 시간이 단 6분으로 단축되면서 모든 것이 허물어졌다. 대영제국의 중앙권력이 어느 순간부터 전신을 통해 사소한 것까지 관리했기 때문이라는 흥미로운 주장. Ali Parsa가 얘기했다고.
  • p172. 잭웰치 식의 스택 랭킹은 A급 직원의 기준이 너무 모호하다.
  • p189. 제조업체 롤스로이스는 어떻게 서비스업체가 되었을까
    • p190. 『초연결』에 나왔던 롤스로이스의 항공기 운항 시간에 따라 엔진 요금을 부과하는 가입형 모델에 대한 얘기가 여기 다시 등장한다.
  • p191. 롤스로이스는 방대한 수의 엔진을 관리했고, 물리적 엔진의 디지털 버전을 설계하고 관리했다. 트렌트 엔진은 ‘디지털 트윈’의 가장 오래된 사례라고 할 수 있다.
  • p204. 팀의 변화를 꾀하는 메타팀을 만들어라: 이런 팀이 제대로 동작할지는 의문

세상을 바꿔라

  • p280. 경제학자 케인스는 1930년에 2028년도의 삶을 예측했다. 물자가 부족한 경제적인 문제는 해결되어 인간은 그로 인해 얻은 시간을 비경제적인 목적에 쏟을 것이라 예견했다. (요즘의 게임 중독, 운동이나 취미에 심취하는 것이 이와 비슷한 현상으로 생각된다)
  • p282. 테일러리즘: 1911년에 노동자를 관리하는 과학적 관리법을 연구하여 책으로 펴냈다.
    • 고도의 지식 노동자는 그렇지 않겠지만 아마존의 물류 창고 직원 등은 테일러리즘의 관리를 받을 것이다.
  • p284. 미래에는 회사를 위해 일하지 않는다. 우리는 플랫폼을 위해 일할 것이다. 그에 따라 우리는 정규직 보다는 자유계약직에 가까운 처지에서 일해야 한다. (비슷한 주장들이 이미 여러 책에 있다)

AI 최강의 수업 2020

인공지능이 변화시키는 우리의 삶, 우리의 세상

  • 인공지능을 활용한 다양한 실험, 서비스를 소개한다.
  • 이미테이션 게임(튜링 테스트) 소개
  • p56. 존 설 John Searle의 중국어 방 Chinese Room, 1980: 중국어를 이해하지 못하는 사람이 방 안에서 한자가 쓰여 있는 글자판을 전달받는다. 그러면 그는 영어로 쓰인 지침서의 지시에 따라 여러 글자판 중에서 하나를 선택하여 밖으로 던진다. 그런데 밖에서는 그 사람이 멋진 중국어 시를 짓는다고 감탄한다. 과연 그 사람은 중국어를 이해하는 것인가?
  • p63. 자율주행차의 딜레마 소개
  • p71. 레이 커즈와일은 “2029년이면 튜링 테스트를 통과하는 컴퓨터가 나올 것”이라 예측했다. 2020년대 중반까지 인간지능 모델이 만들어지고, 이 모델의 능력이 생물학적 신체와 뇌의 한계를 초월하는 특이점이 2045년쯤에는 나타날 것이라고 주장했다.
  • p72. 2016년 한 인공지능 학회에 참가한 인공지능 연구자 350명을 대상으로 ‘언제쯤 사람보다 잘 하는 인공지능이 등장할 것이라고 생각하는지’ 조사했다. (Katja Grace et al., When Will AI Exceed Human)

사람보다 똑똑한 인공지능을 위한 기술

  • p200. 컨볼루션 결과는 어떤 특징을 지니는가
  • p246. 자바, 파이썬 같은 프로그래밍 언어를 형식언어 formal language라고 한다. 형식언어에서는 일련의 규칙에 따라 유한한 알파벳으로 형성되는 문자열의 집합으로 문장을 구성한다. 형식언어에서는 의미를 정의하는 규칙이 잘 정의되어 있다. 따라서 해석에 있어서 애매함이 없다. 그러나 자연어는 애매하다.
  • p247. 자연어 처리에서는 확률적 판단을 자주 사용한다. 언어 요소의 발생 빈도를 확률적으로 표현한 확률적 언어모델이 대표적이다. … 특정한 순서로 단어가 앞뒤로 나타났을 때 가운데 단어의 빈도를 표현하는 모델을 심층 신경망으로 만들기도 한다.
  • p247 ~ p248. 한국어는 조사를 붙여 쓰고, 어미 변화가 있기 때문에 단순한 띄어쓰기로는 형태소를 판단할 수 없다. 그래서 우선 형태소 분석기로 어절 단위의 구문적 역할을 파악하는 것이 일반적이다.
  • p281. 마이크로소프트에서 만들었던 타이 Tay 자율 학습 챗봇이 그 예다. … 타이는 인종파별, 마약 등 바람직하지 않은 트윗을 하는 것으로 밝혀졌다.
  • p284. 이런 기계 학습 시스템 개발의 작업흐름에서 아직은 공학적 관리기법을 적용하지 못하고 있다. 이러한 상황은 딥러닝 기술의 현장 배치나 확장 가능성을 심각하게 제한한다. 그러나 현장에서의 요구가 강하기 때문에 공학적 관리기법에 곧 정형화되고 정립될 것이라 본다. (공학적 관리는 구체적으로 무엇을 지칭하는지 파악 필요. 공학적 관리가 마치 해결책인 것 처럼 언급하나 SI의 경우를 생각해보면 그렇진 않을 것이다. 결국 양산형 개발자들이 공학적 관리의 범주에 들 것이며, 혁신적인 시스템들은 계속 관리 영역의 밖에 있을 것이다)
  • p285. 소프트웨어 시스템 개발에서 기계 학습은 매우 적은 부분을 차지하며, 필요한 주변 인프라가 더 광범위하고 복잡하다. 이런 이유로 기계 학습 시스템을 개발하는 엔지니어는 소프트웨어 공학의 기술도 깊게 이해해야 한다. 소프트웨어 엔지니어가 기계 학습 도구를 익히는 것이 더 바람직해 보이기도 한다. 인공지능에 대한 흥분이 가라앉으면 기계 학습도 소프트웨어를 개발하는 방법 중의 하나였구나 하고 이해하는 엔지니어들이 많아 질 것이다.

인공지능을 지배하는 자, 미래를 지배한다

  • 교육이 변하여 대학이 혁신의 중심이 되어 인공지능 전문가를 양성하자는 주장
  • p345. 이미 중국 대학에서 발간하는 인공지능 연구 논문 수는 미국을 앞서고 있고, 우수 학술행사에서의 논문 발표는 미국에 버금가는 2위를 차지한다.
  • p352. (양극화 현상과 함께) 인공지능 시대의 어두운 면 중 하나는 인간 소외 현상이다. 인공지능이 채용 면접을 진행하고 합격 여부의 판단까지 한다. 어떤 관점에서 합격, 불합격이 결정되는지 지원자들은 모른다.
  • p357. 네이버, 구글, 아마존 등에서는 나의 습관이나 기호를 너무나 잘 파악하고 있다. 영화 감상 기록을 바탕으로 새로운 영화를 추천한다. 일요일 아침 유튜브를 틀면, 다니는 교회의 예배가 자동으로 시작된다. 숙소를 예약하면 주위 볼거리와 행사 안내가 시시각각 전해진다. 온라인으로 상품을 검색하면 유사한 광고가 며칠간 계속 따라다닌다. 구글 알고리즘이 나보다 나를 더 잘 알고 있다는 말이 실감된다.
  • p358. 사회공학 social engineering은 초기 단계이지만 지난 미국 대통령 선거에서 이런 전략이 시도된 적이 있다. 불특정 다수를 대상으로 선거 홍보를 하는 대신 대상자 개개인의 정치적 성향을 파악하여 맞춤형 홍보물을 제공하는 전략을 사용했다고 한다. 정치적 성향을 파악하는 데 페이스북 사용자 약 5,000만 명의 개인 정보가 무단으로 활용됐다는 의혹이 제기되었다. (케임브리지 애널리티카 정보 유출 사건을 지칭한 듯) 빅데이터를 활용하여 정교한 심리 조작의 가능성을 보여준 사례다.
  • p365. 인공지능이 사람의 두뇌와 연결되고, 바이오 기술로 원하는 자손들의 생물학적 특성을 마음대로 선택할 수 있다면, 이런 세상을 사는 인류는 지금의 인류와는 완전히 다른 종으로 더 이상 호모 사피엔스라고 할 수 없을 것이다. 역사학자 유발 하라리는 그 종을 ‘호모 데우스’ 즉 신성을 획득한 인간이라고 명명했다.

창조력 코드 2019, 2020

창조력 Creativity과 인공지능의 관계를 파헤친다. 튜링 테스트 대신 러브레이스 테스트를 제안하며 거창하게 출발하지만 수학과 교수답게 수학에 대한 내용이 대부분을 차지하며 작곡, 수학 증명 등 수학에 관한 내용으로 채워져 있다.

  • 러브레이스 테스트
    러브레이스는 어떤 창조 행위든 기계가 아닌 코드 작성자의 책임이라고 믿었다. 기계는 인간이 시키는 일만 할 수 있다는 논리. 오늘날 해석이 어려운 ML 알고리즘의 판단을, 당시에는 있을 수 없는 일이라고 생각했다.
  • 창조력 창조하기
    보든의 세 가지 창조력:
    1. ‘탐구적’ 창조력
    2. ‘접목’
    3. ‘변혁적’: 허수의 등장을 예시로
  • 제자리에, 준비, 출발(go)!: 알파고, 강화학습 이야기, 창의성을 이야기하는 강화학습을 빼놓을 수 없다.
  • 알고리즘, 현대 생활의 비법: 유클리드 호제법으로 시작해 알고리즘의 기원을 설명, 이외에 페이지랭크, Shapley Value 설명.
  • 알고리즘의 진화: 넷플릭스 프라이즈, 편향에 대해서도 언급
  • 수학으로 그림 그리기: 수학으로 즉 프랙털 같은 일정한 패턴으로 그림을 그릴 수 있는가
  • 대가에게 배우기: 렘브란트 같은 대가의 화풍을 학습하여 대가처럼 따라하는 AI 만들기
  • 수학이라는 예술: 수학에는 직관이 필요하다, 증명은 어떻게 시작되었나
  • 수학자의 망원경, 음악, 작곡에도 공식이 있다면, 딥매시매틱스(딥러닝 수학 증명)
    음악, 작곡, 수학 공식 모두 수학자의 관점에서 AI가 창의적인가를 대입한다. 사실상 이 책에서 가장 구체적인 부분, 그러나 가장 집중력이 떨어지는 부분이기도 하다.
  • 언어 게임: QA, 번역, 중국어 방
    중국어 문장을 보고 그것과 같은 문장을 지침서에서 찾을수만 있다면 컴퓨터가 어떤 프로그램에 따라 인간의 응답과 다를 바 없는 응답을 내놓더라도 그 기계에 지능이나 이해력이 있다고 볼 수 없다. 존 설의 중국어 방 p397
  • 인공 지능이 들려주는 이야기: NLG, 재무제표를 보고 자동으로 기사를 쓰는 알고리즘 이야기
  • 우리는 결국 교감을 원한다:
    기계 학습이라는 새로운 기법을 살펴보면 기계가 무언가를 창조하기란 불가능하다는 전통적 주장 가운데 상당 부분을 의심하게 된다. p438

딥러닝 레볼루션 2018, 2019

목차만 보면 딥러닝을 얘기하는거 같지만 실제로 그는 신경 과학 연구자이고, 오늘날 인공 신경망의 붐업과는 그 궤를 달리한다. NIPS 또한 지금은 인공 신경망을 위한 학회가 되었지만 과거에는 그렇지 않았다. 이 책은 ‘생물학적 신경망’을 연구한 학자가 바라보는 인공 신경망의 성공 정도로 볼 수 있다. 이 책은 그의 개인적인 동료들과의 추억, 메모에 관한 내용들이다.2

  • 머신러닝의 부상: AI 활용 분야 소개
    • p31. 구글 번역 사례에서 도쿄대 준 레키모토 교수 얘기가 나온다.
  • 퍼셉트론
  • 시각 시스템에서 얻은 통찰: 생물 시각 시스템에서 얻은 여러가지 통찰 소개
  • 머신러닝의 미래
  • 헬로, 미스터 칩스: 하드웨어의 발전
    • p195. VLSI의 등장. 여기서도 18개월마다 두 배라고 언급. 위키피디어에 따르면 18개월은 잘못 인용된거라고 얘기한다.
  • 자연은 인간보다 영리하다: 마빈 민스키의 비판
  • 칵테일파티 문제: 화자 인식에 관한 문제, ICA(PCA와 유사)를 소개한다.
  • 오류의 역전파: 럼멜하트의 백프로퍼게이션
  • 컨볼루션 러닝, 보상학습(강화학습), NIPS 소개

지능에 관하여 1950, 2019

계산 기계와 지능 Computing Machinery and Intelligence 이미테이션 게임 Imitation Game = 튜링 테스트 나는 약 50년 안에 약 \(10^9\)의 저장 용량을 가진 컴퓨터를 프로그래밍 하여 흉내 게임에서 평범한 질문자가 5분 동안 질문한 뒤에 정체를 알아맞힐 확률이 70퍼센트를 넘지 않도록 할 수 있다고 믿는다. 나는 “기계가 생각할 수 있을까?”라는 원래 질문이 논의 주제로 삼기에는 무의미 하다고 믿는다. p.82

내 의견에 반대하는 의견들을 살펴보자.

  1. 신학적 반론
  2. ‘모래에 처박은 머리’ 반론
    “기계가 생각한다면 그 결과가 너무 끔찍할 테니 차라리 기계가 생각하지 못한다고 바라고 믿자.”
  3. 수학적 반론
    수리 논리의 결론 중에는 이산 상태 기계의 능력에 한계가 있음을 밝히는 데 쓸 수 있는 것들이 많다. 이런 결론 중에서 가장 널리 알려진 것은 괴델 정리로, 아무리 강력한 논리 체계에서도 그 체계 자체가 일관성을 유지하는 한 체계 안에서 입증할 수도 반증할 수도 없는 진술을 만들어낼 수 있음을 보여준다.
  4. 의식 논변
    제퍼슨 교수의 1949년 리스터 메달 수상 연설이 있다. “기계가 우연한 기호의 조합에 의해서가 아니라 생각과 감정을 바탕으로 소네트 협주곡을 쓰지 못하는 한, 기계가 놔와 동등하다는 주장에 동의할 수 없습니다. 제 말은 단순히 작품을 쓰는 것이 아니라 자신이 그 작품을 썼다는 사실을 알아야 한다는 것입니다.”
  5. 다양한 행위 무능력 논변
  6. 러브레이스 부인의 반론 “해석 기관은 결코 독창적인 일을 하는 척하지 않는다. 기계는 우리가 어떻게 명령해야 할지 아는 모든 일을 할 수 있다.”
  7. 신경계와의 연관성 논변
  8. 비격식적 행동 논변
  9. 초감각 지각 논변
    나는 독자들이 초감각 지각 개념과 네 가지 초감각 지각 능력(텔레파시, 투시, 예지, 염력)의 의미에 친숙하다고 가정한다. 이 난감한 현상들은 우리의 정상적 과학 개념을 모조리 부정하는 듯하다.

계산 기계와 지능 Computing Machinery and Intelligence

마음의 사회 1985, 2019

★★☆☆☆
뒤늦게 번역된데다 비전문가가 번역을 해서인지 지나친 한자어 남용으로 원서에 비해 읽기가 오히려 더어렵다. 대리행위소가 대체 뭐지? 이 책은 기술서라고 보다 인공지능에 대해 통찰하는 철학책에 더 가깝다.

딥 씽킹 2017

기계가 인간의 노동을 대체하는 현상을 당연한 흐름으로 바라보는 입장은 항생제 때문에 장의사들이 일자리를 잃게 되었다고 한탄하는 부정적인 입장보다 나을 바 없다. 문명이 진화하는 동안 노동은 언제나 인간으로부터 기계로 넘어갔다. 냉난방이 이루어지는 쾌적한 방 안에 앉아 조그마한 디지털 장비로 인류의 모든 지식을 검색하면서, 우리가 직접 노동을 하지 않아도 되는 현실을 한탄한다는 것은 놀라운 사치가 아닌가. 지금도 세상 곳곳에서는 수많은 사람들이 하루 종일 땀 흘려 일하면서도 깨끗한 식수와 현대적인 의료 혜택을 누리지 못하고 있다. (p72, 딥 씽킹, 2017)

실버는 에드거 앨런 포가 1836년에 쓴 에세이에서 다루었던 체스 자동인형 투르크를 언급했다. 그러나 실버는 포가 남긴 “들은 것은 하나도 믿지 말고, 본 것은 절반만 믿을지어다”라는 격언도 진지하게 받아들였어야 했다. (p290, 딥 씽킹, 2017)

수많은 사람들이 내게 물었다. “딥블루가 정말 속임수를 썼을까요?” 그때마다 나는 이렇게 답한다. “잘 모르겠습니다.” 그러나 20년간의 자기 성찰과 폭로, 그리고 연구 끝에 나는 이제 “아니요”라고 대답한다. 반면 IBM에 대해 말하자면, 그들은 승리를 얻기 위해 공정한 경쟁의 정신을 배반했다. 그리고 그 배반의 희생자는 과학이었다. (p352)

마음의 탄생 2012, 2016

나이가 많은 독자라면 아날로그 전화선을 통해 정보를 전송하던 전화기 모뎀을 기억할 것이다. 모뎀선은 귀에도 분명하게 들릴 정도로 지직거리는 소리가 나고 여러 형태의 왜곡이 발생한다. 그럼에도 매우 높은 수준의 정확도로 디지털 데이터를 전송할 수 있었던 것은 모두 섀넌의 노이즈 채널 정리 덕분이었다. p269

Last Modified: 2024/03/08 16:09:57

is a collection of Papers I have written.
© 2000 - Sang-Kil Park Except where otherwise noted, content on this site is licensed under a CC BY 4.0.
This site design was brought from Distill.