<br>
> “나는 다시 출발점으로 돌아가 상상 속의 질서와 지배적 구조를 창조해내는 인류의 독특한 능력을 재검토해야겠다는 생각이 들었다.”
> – 유발 하라리의 글을 학습한 인공지능 언어 모델 GPT-3
<br>
## My Thoughts
- 수십 년 후에는 AI가 쓴 도서를 구매하고 읽게 될 거다.
- AI가 쓰면 베스트셀러가 될 확률이 더 높을 거다.
- 결국, 인간과 AI를 구별할 수 없는 날이 올 것이다.
- 카이스트 정재승 교수는 “데이터를 분석하고 확장하는 일은 인공지능이 훨씬 빠르기 때문에, 우리는 ‘이해(Comprehension)’가 필요한 일을 해야 한다”라고 말했다.
- 생각하는 사람이 되자.
<br>
## Summary
- 하라리는 고백한다. “나를 구현해낸 GPT-3의 글을 보면서 마음이 복잡했다.” “글을 읽는 동안 충격으로 입을 다물지 못했다. 정말 AI가 이 글을 썼단 말인가?”
- “2010년 <사피엔스>를 집필할 때 나는 AI에 전혀 관심이 없었다”며 “10년이 지난 현재 AI 혁명이 전 세계에 휘몰아치고, 이 혁명은 우리가 알던 방식의 인류 역사가 끝났다는 신호를 보내고 있다”
- 서점가에서는 단순히 서문에서 그치지 않고 AI가 본격적으로 집필에 참여한 책들이 등장하고 있다.
- 초거대 인공지능 → 하이퍼스케일(HyperScale), 대규모(Large Scale), 거대한(Massive) 인공지능
- 일반적으로 하이퍼스케일은 인공지능이나 클라우드 등의 분야에서 컴퓨팅의 대규모 확장에 관한 모든 것을 의미.
- 시냅스는 약 1,000조 개, GPT-3는 시냅스와 비슷한 역할을 수행하는 인공지능의 파라미터(parameter, 매개변수)를 1,750억 개
- 파라미터는 하이퍼스케일 인공지능의 성능을 좌우합니다. 파라미터 수를 크게 늘리면 인공지능의 처리 능력, 학습 능력이 비약적으로 발전한다.
- 하이퍼스케일 인공지능의 대표적인 사례는 오픈AI가 개발한 딥러닝 기반의 대규모 언어 모델인 ‘GPT(Generative Pre-Training)’ 모델 시리즈
- 3,000억 개에 달하는 데이터 세트, 570GB의 텍스트와 대량의 파라미터로 만들어진 GPT-3는 사람과 채팅을 통해 질문에 답하는 등 대화를 하거나 스스로 문장을 만들어낸다.
- 오픈AI의 GPT-3와 같은 인공지능의 등장에 따라 구글, 마이크로소프트를 비롯한 많은 IT 기업 역시 거대 규모의 인공지능 구현에 집중하고 있다.
- 구글 BERT, MUM, Transformer, 메타 BlenderBot, 마이크로소프트 Turing-NLG, 화웨이 PanGu Alpha, 네이버 HyperCLOVA
<br>
## References
[이걸 AI가 썼다니…'사피엔스' 저자 하라리 "너무 충격 받았다"](https://n.news.naver.com/mnews/article/015/0004763440?sid=103)
[알파고는 옛말? 초거대 인공지능 '하이퍼스케일'이 온다](https://blog.lgcns.com/2672?fbclid=IwAR1hXNuV_WFQfd_gzOoS6LPLQSmg7rBDh4muliZMarS09w7AbdkMZbc39VY)
[인간지성과 인공지능의 차이점은? – Sciencetimes](https://www.sciencetimes.co.kr/news/%EC%9D%B8%EA%B0%84%EC%A7%80%EC%84%B1%EA%B3%BC-%EC%9D%B8%EA%B3%B5%EC%A7%80%EB%8A%A5%EC%9D%98-%EC%B0%A8%EC%9D%B4%EC%A0%90%EC%9D%80/)
[인간과 AI를 구별할 수 없는 날이 온다](https://n.news.naver.com/mnews/article/037/0000029098?sid=105)
<br>
## Links
[[_Index_1_DailyNote]]
<br>