구글 딥마인드의 AI 챗봇이 세계 각국 국가대표 수학 영재들이 경쟁하는 국제수학올림피아드에서 금메달에 해당하는 점수를 공식 인정받았습니다.
구글 딥마인드는 '제미나이 딥 싱크'의 고급 버전이 제출한 답안을 인간 참가자들과 똑같은 조건과 채점 기준으로 평가한 결과 42점 만점에 35점이 나왔다고 현지시간 21일 블로그를 통해 밝혔습니다.
지난달 호주의 선샤인코스트에서 열린 올해 국제수학 올림피아드에는 110개국 국가대표 630명이 참가했으며 이 중 67명이 금메달, 103명이 은메달, 145명이 동메달, 132명이 등외 장려상을 받았습니다.
금·은·동메달 커트라인은 각각 35점, 28점, 19점이었습니다.
수학올림피아드 위원장인 그레고르 돌리나르 류블라냐대 교수는 구글 딥마인드가 내놓은 서술형 답안에 대해 "여러 가지 면에서 놀라웠다"며 "채점자들은 이 답안들이 명확하고 정밀하며, 답안 대부분이 전개를 따라가기 쉽다고 평가했다"고 설명했습니다.
구글 딥마인드가 온라인으로 공개한 답안을 보면 AI 모델은 문제마다 단계별로 보조정리(lemma)와 정리(theorem) 등을 스스로 고안해내 체계적이고 일목요연하고 엄밀하게 답안을 서술했습니다.
이 AI 모델은 올해 참가자들과 마찬가지로 인간 언어로 문제지를 받아 인간 언어로 답안을 제출했으며, 총 6문제 중 5문제를 완벽하게 풀었습니다.
제한 시간도 4시간 30분씩 이틀간으로 인간과 똑같이 적용됐습니다.
이는 구글 딥마인드가 '알파지오메트리 2'와 '알파프루프'가 지난 해 대회 문제에서 거둔 성과에 비해 훨씬 더 앞선 것입니다.
지난 해에는 두 AI 모델이 42점 만점에 은메달에 해당하는 28점을 받았다고는 했으나, 계산 시간이 이틀 내지 사흘이 걸렸고 인간 언어로 문제를 읽고 답안을 제출한 것도 아니었습니다.
올해 쓰인 제미나이 딥싱크의 고급 버전은 아직 일반이 사용할 수 있도록 공개되지는 않았습니다.
또 다른 유명 AI 기업인 오픈AI의 추론 부문에서 일하는 앨릭스 웨이 박사는 자사 AI 모델에 인간 참가자들과 똑같은 조건으로 올해 수학올림피아드 문제를 풀어보도록 한 결과 금메달 수준의 점수가 나왔다고 지난 19일 소셜 미디어를 통해 발표했는데, 이는 오픈AI 자체적으로 실시한 내부 평가였습니다.