[사회] “논문 제1저자는 챗GPT” 오타 아니었다…파격 학술지 등장
-
2회 연결
본문
인간 연구자가 프롬프트를 입력하고, AI가 직접 논문을 쓰는 모습을 시각화한 이미지. 나노바나나2
[제1저자(AI Author)] 클로드 오퍼스 4.6 (인공지능)
[프롬프터(Prompter)] 요하네스 왁스(Johannes Wachs, 헝가리 코르비누스대학교)
오타가 아니다. 지난 2월 출범한 ‘인공지능 생성 논문 저널(JAIGP·Journal for AI Generated Papers)’에 실린 실제 논문의 저자 표기란이다. 논문을 주도적으로 집필한 제1저자는 인공지능(AI), 인간 연구자는 분석 방향을 지시하고 결과를 검증하는 ‘프롬프터’로 이름을 올렸다.
해당 논문은 구글 트렌드 데이터를 활용해 생후 18개월 영유아 부모의 수면 관련 검색량이 급증하는 현상을 분석했다. 방대한 문헌 교차 검증부터 일광절약시간제(서머타임) 시행에 따른 미세한 데이터 변동 추적까지…. 복잡한 분석 과정을 대규모 언어 모델(LLM)이 전담했다. AI가 집필을 주도하고 인간은 질문을 던지며 최종 검증을 맡는, 새로운 연구 방식의 가능성을 보여준 셈이다.
클로드가 육아를, 챗GPT가 칸트 윤리학을?
JAIGP는 미국 MIT 미디어랩 출신으로 경제복잡성 연구 선구자인 세사르 이달고(César Hidalgo) 툴루즈경제대 교수가 설립한 학술 플랫폼이다. 오직 AI가 주도적으로 작성한 논문만 학술지에 등재된다.
주목할 만한 건 제1저자로 이름을 올린 AI 모델의 면면이다. 2일 기준 투고된 42편을 보면 앤트로픽의 클로드(Claude Opus 4.6), 오픈AI의 챗GPT(GPT-5.3), 알리바바의 큐웬(Qwen3) 등이 나란히 올라 있다. 챗GPT와 클로드가 공동 제1저자로 양자역학을 다룬 논문이 있는가 하면, 칸트 윤리학은 챗GPT가, 거버넌스 모델 설계는 큐웬이 맡았다. 불과 1~2년 전만 해도 상상하기 어려웠던 풍경이다.
숨어서 쓰다 걸리느니 투명하게 밝히자
JAIGP에 게재된 논문의 저자 표기란. 제1저자(AI Author)로 앤트로픽의 인공지능 모델인 ‘클로드(Claude) Opus 4.6’이, 연구 방향을 지시한 인간 연구자는 ‘프롬프터(Prompter)’로 명시되어 있다. 해당 논문 캡쳐
파격적인 학술지가 탄생한 배경에는 기존 학계의 모순이 자리 잡고 있다. 연구 현장에서 AI 활용은 이미 거스를 수 없는 흐름이 됐지만, 대다수 학술지는 이를 평가할 심사 체계를 갖추지 못했다. 올해 초 AI 탐지 기업 GPT제로가 세계 최고 권위의 AI 학회 뉴립스(NeurIPS) 2025 승인 논문 4841편을 전수 조사한 결과가 대표적이다. 51편에서 실재하지 않는 가짜 문헌을 인용한 이른바 ‘환각 인용’ 100건이 적발돼 학계에 충격을 줬다.
JAIGP는 이러한 음성적 관행을 양지로 끌어올리겠다는 취지에서 출발했다. 이달고 교수는 JAIGP 설립 취지문에서 “AI를 몰래 쓰고 감추는 대신, 기계가 연구에서 맡은 역할을 투명하게 공개하는 공간이 필요하다”고 밝혔다. 투명성 원칙은 심사 과정에도 적용된다. 투고된 논문은 먼저 AI 자동 스크리닝을 거친 뒤, 외부 AI 심사 플랫폼인 리뷰어3이 방법론 타당성을 분석해 피드백을 제공한다. 기획부터 집필, 1차 심사까지 전 과정에 AI가 배치된 구조다.
“설문 돌릴 시간에 질문 다듬어”vs“책임은 누가 지나”
연구 현장의 분위기는 이미 빠르게 변하고 있다. 서울 소재 대학원 박사과정생은 “기존에는 연구비나 시간의 한계로 폐기되던 가설들을 최근에는 AI로 빠르게 시뮬레이션해 본다”며 “통계 프로그램 활용법보다 AI에게 정확한 질문을 던지는 ‘프롬프트 작성법’을 먼저 익히는 추세”라고 전했다. 대학원생 사이에선 방대한 문헌을 직접 읽고 요약하는 물리적 시간 싸움 대신, ‘누가 더 예리한 질문을 던지느냐’가 연구의 질을 결정하는 구도로 재편되고 있다는 이야기도 나온다.
물론 학계의 논쟁은 현재진행형이다. 네이처(Nature)·사이언스(Science)·셀(Cell) 등 학술지들은 AI를 공동 저자로조차 인정하지 않는 입장을 고수하고 있다. AI가 묻혀있던 아이디어를 빠르게 구현하고 연구의 투명성을 높인다는 평가도 있지만, 책임 소재가 불분명하다는 지적에서 자유롭지 못하기 때문이다.
AI가 환각 현상으로 데이터를 날조하더라도 기계에 윤리적 책임을 물을 수는 없다. 결국 인간 프롬프터가 수십 쪽에 달하는 논문의 진위를 일일이 검증해야 하는데, 이는 현실적으로 쉽지 않다. 연구자들이 직접 데이터를 다루는 과정을 건너뛰면서 비판적 사고력을 잃을 수 있다는 우려도 나온다.
AI가 쓴 42편 중 AI 심사 통과는 2편뿐
JAIGP 홈페이지 메인 화면. 각 논문 리스트의 주저자(AI)란에 클로드 4.6, 제미나이 3.1 등 인공지능 모델 이름이 명시되어 있다. 홈페이지 캡쳐
JAIGP 역시 AI 주도 집필의 질적 한계를 인지하고 있다. 실제 심사 결과가 이를 보여준다. AI가 쓰고 AI가 심사하는 구조임에도 합격률은 극히 낮다. 지금껏 투고된 42편 가운데 AI 심사를 통과한 논문은 단 2편에 불과했다. 11편은 기본적인 학술 요건을 갖추지 못해 초기 단계에서 탈락했다. JAIGP는 향후 인간 전문가가 참여하는 동료 평가(피어리뷰) 단계도 도입할 예정이다.
천현득 서울대 자유전공학부 교수는 “지엽적이고 시간을 많이 잡아먹는 작업은 AI에 맡기고, 인간은 연구의 본질에 집중하는 협업이 바람직하다”며 “AI가 내놓는 정보에는 편향과 환각 위험이 상존하는 만큼 앞으로는 이를 걸러내는 검증 역량이 필수”라고 강조했다.



댓글목록 0