구글의 연례 개발자 대회(I/O) 이틀째인 15일(현지시간) 미국 실리콘밸리 구글 본사에 마련된 체험관. 약 30분 대기 끝에 '프로젝트 아스트라' 체험을 위한 공간에 들어서자, 벽면의 대형 터치용 모니터와 책상을 비추는 천장의 카메라가 방문객들을 반기고 있었다.
안내를 맡은 직원은 "이것은 시연용이기 때문에 제한된 대화만 할 수 있다"며 "시범을 보여주겠다"고 말했다. 이어 그가 모니터에서 자판을 켜고 복면 쓴 사람과 거북이 이모티콘을 선택한 다음 "이 영화가 뭔지 맞춰볼래?"라고 하자 AI 모델 '제미나이'가 여성의 목소리로 "(지난해 개봉한 애니메이션) 닌자터틀: 뮤턴트 대소동 같군요"라고 말했다. 그가 이번에는 책상 위에 손가락으로 브이자를 만들어 올리고 "몇 개인지 알겠어?"라고 물었다. AI는 "손가락을 두 개만 펴고 있네요"라고 답했다.
구글은 전날 I/O에서 보고 듣고 말하는 AI 비서를 공개했다. 이는 구글 딥마인드가 주도하는 일반인공지능(AGI) 개발 프로젝트 '프로젝트 아스트라'의 초기 결과물이다. 업계에서는 아스트라를 지난 13일 오픈AI가 공개한 'GPT-4o'에 대적할 제품으로 꼽는다.
구글이 공개한 시연 영상에서 아스트라는 이용자가 스마트폰 카메라로 창밖을 비추며 "내가 어느 동네에 있지?"라고 묻자 "영국 런던의 킹스크로스"라고 정확하게 답했고, "내 안경이 어디 있어?"란 질문에는 "책상 위 빨간 사과 옆"이라고 답했다. 이용자가 이동하며 촬영한 모든 장면을 기억하고 이를 기반으로 안경 위치를 알려준 것이었다.
이날 체험에서는 스마트폰으로 이용할 수 없는 데다 체험공간 내에 마련된 물건만 사용해 대화해야 한다는 제약이 있긴 했으나 아스트라는 꽤 인상적인 능력을 보여줬다. 대체로 물건을 정확하게 인식했고, 응답 간격도 1초 안팎으로 비교적 자연스러운 대화가 가능했다. 책상에 바나나와 기차 모형을 올려놓고 "이야기를 만들어봐"라고 지시하자, 아스트라는 "기차가 여행을 시작합니다. 통통하고 노란 바나나 한쌍이 앞으로의 여정에 필요한 자양분을 제공하려 합니다"라고 그럴듯한 도입부를 제시했다.
그러나 이따금 실수도 했다. 펜으로 간단히 하트를 그린 뒤 뭔지 맞춰보라고 하자 "너무 쉽다. 하트"라고 했지만, 개를 그렸을 때는 '게'라고 엉뚱한 답변을 내놨다. 아직 사람 수준의 추론 능력은 갖추지 못한 듯했다. 아이폰14를 보고 아이폰인 것까지는 맞췄으나 어떤 모델인지 맞춰보라는 지시에는 "카메라 모양을 보니 아이폰11 혹은 12 같다"고 했다.
기자와 함께 아스트라를 체험한 마이크로소프트 직원은 "오늘 시연만 봐서는 GPT-4o가 앞서 있는 것으로 보인다"라며 "그러나 둘 다 아직은 시연용 버전만 공개됐기 때문에 실제로 출시돼 이용해봐야 우열을 가릴 수 있을 것"이라고 말했다.