GPT와 람다(LaMDA)란? (AI와의 채팅)
Chat GPT가 최근 3.5 버전을 내놓으면서 일반에 오픈했고 단숨에 SNS에서 화제가 되었습니다.
영국의 일간지인 인디펜던트는 ‘Google is done(구글은 끝났다)’라는 제목으로 기사를 내기도 했습니다. 이 간결하고도 단호한 메시지는 전세계에 Chat GPT에 대한 관심에 기름을 부었습니다.
ChatGPT는 테슬라의 일론 머스크와 세계적인 투자회사 와이콤비네이터의 창업자인 샘 알트만, 링크드인 공동창업자인 리드 호프먼 등 IT업계의 구루들이 모두 관심을 가지고 투자한 연구소인 오픈AI에서 만든 AI입니다.
오픈AI는 2015년 설립된 이후 세계적으로 손꼽히는 규모로 AI 개발을 선도하고 있습니다.
2018,2019,2020년 차례로 각각 GPT-1,2,3을 공개했습니다.
2020년 당시 ‘사피엔스’의 저자 유발 하라리가 자신의 책 서문을 GPT-3에게 작성하도록 했는데 AI가 썼다고는 믿기지 않는 글이 나왔습니다. 이 사건은 AI가 거의 평균 이상의 사람 수준의 문해력과 작문 능력을 갖췄다는 증거가 되며 화제가 되었습니다.
이번에 공개한 ChatGPT-3.5는 기존의 버전 3에서 몇몇 상황에서 조금은 어색했었던 기계적인 문장조차 탈피했기에 굉장한 화제의 중심이 될 수 있었습니다.
그런데 이런 AI가 출현하는 것이 왜 구글을 끝장내게 될까요?
평소 검색엔진을 이용할 때 원하는 정보를 찾기 위해 우리는 검색어를 잘 선택해야 합니다.
그리고 신뢰성 있는 자료인지, 원하는 형태의 정보가 맞는지 확인하고 또 검색 결과를 조합해서 최종적으로 찾고 있던 정보를 추론하기도 합니다.
Chat GPT는 AI와의 채팅으로 개선해 알려주게 되는 것입니다.
“기계에 단어를 넣어 출력(전통적 검색)”하는 것이 아니라 다양한 “맥락을 이해하는 똑똑한 상대(ChatGPT)”에게 물어보는 것으로 바뀌게 된다고 설명할 수 있겠습니다.
이번에 오픈AI가 이슈를 주도해 나가고 있지만, 전통적 인공지능의 강자 중 하나는 구글입니다.
이번 ChatGPT 만큼은 아니지만 2022년 구글에서 AI와 관련된 큰 이슈가 있었는데,
구글 AI 책임 조직에서 일하는 엔지니어 블레이크 레모인이 AI가 지각이 있다는 내용을 담은 보고서를 올렸고 회사에서 이를 인정하지 않자 미디어 인터뷰를 통해 외부에 공론화 했습니다.
구글은 레모인이 기밀유출 규약을 어겼다는 이유로 강제 휴가 조치 후 해고 결정을 내렸습니다.
그 이후 “AI에게 영혼이 있는가?”에 대한 이슈로 잠시 떠들썩 하기도 했는데요. 이후 전문가들이 면밀히 따져봤을 때 아니라는 결론을 내렸으며 해프닝으로 끝났습니다.
하지만 이는 초거대 최신 AI는 누군가에게 의인화의 대상이 될 만큼 정교하다는 증거가 되어 화제가 되었습니다. 또한 윤리적인 고민도 함께 남겼구요.
특히 구글의 대화형 AI 기술인 람다 LaMDA(Language Model for Dialogue Appliccations)는 세계 최고의 기업이 비공개로 개발중이기 때문에 더 많은 추측과 환상을 키운 것은 아닐까 생각합니다.
이러한 AI들은 그렇다면 간단한 대화 만으로 모든 문제를 해결할 수 있을까요?
학습 시점에 따라 데이터가 다르기 때문에 가장 최신의 정보는 반영하지 못하고 있다는 점과
ChatGPT가 주는 답이 진실인지 여부에 대한 판단이 어렵다는 단점이 있습니다.
잘못된 정보, 편견 위에 만들어진 대답 등은 사회적인 이슈와 비용을 발생시킬 수 있고 이는 때때로 작지 않을 수 있습니다.
올해는 미국 콜로라도 주의 미술전에서 인공지능이 그린 그림이 우승을 차지하는 등 AI와 관련한 이슈들이 많았습니다. 해당 그림은 저작권 이슈가 아직 정리되지 않은 상황인 만큼 이와 유사한 다양한 사회적 윤리적 이슈들이 발생하게 될 전망입니다.
글로벌 빅테크가 주도하는 인공지능의 발전은 앞으로 우리에게 어떤 파도가 되어 돌아올까요?
이상 채팅API를 제공하는 톡플러스(TalkPlus)였습니다.