이번주에 Open AI Spring 이벤트에서 GPT-4o가 선보였죠.
26분 가량에 불과한 그 발표를 보면서 사실 입을 다물지 못했습니다.
그동안 ChatGPT를 비롯한 AI 도구들이 참 놀랍고 빠르며 효율적인 도구이긴 한데, 가장 부족한 부분을 꼽으라면 컨텍스트, 즉 맥락을 제대로 알고 인간과 커뮤니케이션하는 부분이었다 보거든요.
예를 들면 흔히 지인들과 얘기하는 것처럼, 중간에 말을 끊고 자유롭게 대화해도 그 맥락을 이어간다거나, 단순히 지식만을 얘기하는 것이 아니라 그 토픽을 얘기하는 정황과 감정선 등 다양한 맥락에 따라 달라져야 하는 부분들이 매우 중요하고 필요한데, 그런 부분이 많이 부족했죠
그런데 이번 발표 영상을 보니 그런 컨텍스트 부분이 정말 많이 좋아져서 놀랐습니다.
GPT4-o가 기존의 ChatGPT 3.5 나 4.0 보다 뭐가 달라졌는지 간단히 정리해보죠.
https://www.youtube.com/live/DQacCB9tDaw?si=4bUKJnxO9KxMG3Zf
GPT4-o가 선보인 새로운 모습들
1. 끼어들기 등 자연스러운 대화가 가능해졌다
위 영상을 보면 아시겠지만 GPT4-o 부터는 음성 대화가 기본 UI라고 해도 될만큼 편해졌네요. 그냥 누군가와 스피커 통화하듯 챗GPT4-o와 그냥 얘기하면 됩니다.
기존에는 프롬프터를 어떻게 써야하나 고민하면서 입력창에 텍스트를 넣었다면 지금은 그냥 말로 편하게 하면 되네요. 특히 인공지능이 말하는 중에 언제든 그냥 말 끊고 들어가서 자연스럽게 얘기해도 그 맥락이 고스란히 이어지는 부분입니다.
영화 HER 에 나오던 에이전트 그녀가, 이렇게 빨리 나올지 몰랐네요. 그냥 사람처럼 대화가 됩니다 !!
2. 텍스트는 물론 실시간 영상과 음성 분석까지, 멀티 모달 Vision 이 가능해졌다
정말 깜짝 놀란 부분은, 데모중 아이폰 카메라로 수학문제를 푸는 걸 보여주면서 그 대화가 가능하다는 점이었어요. 솔직히 그 부분에서 소름이 끼쳤습니다. 아이폰 카메라가 GPT4-o의 눈이 되는 것이죠.
설명중에도 'Vision' 기능을 강조했는데요. 카메라로 비춰지는 이미지나 텍스트, 심지어 사람이 손글씨로 쓰는 것들을 '실시간으로' 이해하고 그것에 관해 이야기가 되네요.
그리고 그것은 PC 에서도 경악할만한 경험을 전달했습니다. 코딩 화면을 바로 보여주면서 역시 실시간으로 조언을 듣는 부분이죠. 까만 점 하나로 정말 간단하게 생긴 GPT4-o 의 모습이지만 이젠 뇌만 있는 것이 아니라 '눈'이 생겨서 훨씬 더 풍성한 컨텍스트를 이해하게 되었다는 점입니다.
3. 감정을 담은 소통이 가능해졌다
중간중간 대화하는 중 GPT4-o의 목소리 톤 보셨습니까?
혀를 내두르게 만드네요. 기계라는 느낌이 점점 없어집니다. 풍성한 감정 표현이 목소리에 드러나기 시작했고, 동화를 읽어주는 부분에서도 사람이 요구하는 감정의 톤을 정확히 이해하고 얘기합니다.
단순히 감정을 목소리에 싣는게 신기함에서 그치는 것이 아니라, 이것은 인공지능을 대하는 커뮤니케이션 태도에 매우 중대한 변화를 가져올 수 있습니다. 시각과 다르게 청각 언어 부분은 불쾌한 골짜기가 별로 없는 분야거든요. 훨씬 더 자연스러운 대화와 함께 인공지능과 나눌 수 있는 교류도 훨씬 풍성해지는 것이죠
이 정도면 지금도 어느정도 보육교사 역할을 수행할 것으로 보여요.
4. 미친듯한 속도를 보여줬다
카메라에서 실시간 수학문제 이해하는 속도 보세요... 솔직히 미쳤습니다.
또한 서로 모국어가 다른 사람들끼리 대화에 참여해서 서로의 말을 중간에서 통역해주는 부분... 그동안 구글 등에서 보여준 번역 기술이 다 좋지만 대화가 자연스럽게 되지 않을 만큼 속도가 매우 큰 장벽이었는데, 정말 미친 속도를 보여주네요.
과연 실제품도 이럴 것인지, 데모만 이런 것인지는 한번 봐야겠습니다.
좀 무서워지기까지 합니다.
5. 통역사가 필요 없어졌다
데모만이 아닌, 실시간 속도가 정말 저렇다면,
정말로 정말로 통역사가 필요없을 것 같습니다.
6. 이 모든게 무료로도 가능해졌다
그리고 이 모든 것이 무료 사용자들한테도 오픈한다는 이야기를 했어요.
물론 완전 100% 는 아니고 유료 사용자와 차이를 두겠지만 Open AI 는 인공지능의 확장을 위해서는 훨씬 더 많은 사람들이 이 가능성을 느껴야 한다고 본 거 같아요.
챗GPT에서의 경험은 물론 API 부분까지, 무료 이용자에게도 어느정도는 열릴 것으로 보입니다.
여기까지가 Open AI가 새롭게 내놓은 GPT4-o를 보면서 확인할 수 있었던 주요 변화였어요.
핵심은 'Context'였던 것 같습니다.
소통을 보다 활발하게, 풍부하게, 지속적으로 하게 만드는 것.
소위 사람 사이에서도 '쟤는 말이 통해...'라고 말할 수 있는 것의 핵심은 '맥락'을 잘 짚느냐 거든요.
인공지능의 가능성에 대해 또 한발 크게 전진한 느낌입니다.
본 주제와 관련한 좀 더 자세한 내용은 강의나 자문을 통해 만나실 수 있습니다.
기업체 강연이나 자문 컨설팅, 기고 등 문의는 아래에서 해주세요. 적극 도와드리겠습니다.
한국 컨텍스트 연구소
'UX와 컨텍스트' 카테고리의 다른 글
TV UX 어떻게 진화해야 하나 (4) : 진정한 홈 허브 센터로의 진화를 기대하는 TV (0) | 2017.08.18 |
---|---|
TV UX 어떻게 진화해야 하나 (3) : TV가 주목해야 하는 UX와 트렌드 (0) | 2017.08.16 |
TV UX 어떻게 진화해야 하나 (2): 실패했던 이유와 TV만의 컨텍스트 이해 (0) | 2017.08.14 |
TV UX 어떻게 진화해야 하나 (1) : TV에 시도되던 경험들(Experiences)과 실패 (0) | 2017.08.12 |