인공지능(AI)가 생성한 쓰레기 정보들이 인터넷을 오염시키기 시작했다고 월스트리트저널(WSJ)이 12일 보도했다.
인공지능 챗GPT가 등장한 지 몇 달 안 돼 인터내셔널 리빙이라는 잡지의 편집장 제니퍼 스티븐스는 예전보다 쓸모없는 기사를 걸러내는데 더 많은 시간을 쓰고 있다.
스티븐스 같은 사람들은 인공지능이 생성한 콘텐트가 자신들의 기준에 크게 미치지 못하는 일종의 스팸으로 간주한다.
인공지능이 여러 가지 탁월한 능력을 보이면서 각광을 받고 있는 동시에 인공지능이 만든 스팸도 크게 늘면서 인터넷을 오염시키고 있다.
인공지능 생성 가짜 뉴스 사이트 기하급수적으로 증가
뉴스사이트 평가 회사인 뉴가드가 찾아낸, 인공지능이 콘텐트를 만드는 가짜 뉴스사이트가 49곳에 달했으나 한 달 만에 277곳으로 늘어났다.
이 회사 공동설립자 고든 크로비츠는 “기하급수적으로 늘어난다”면서 가짜 뉴스회사들이 구글의 뉴스 광고로 돈을 벌고 있다고 지적했다.
인공지능이 정치적 허위 정보와 해킹을 위한 표적 메시지를 만들어낼 수 있다는 우려도 크다. 사이버 보안회사 지스케일러는 범죄자들이 인공지능을 아직 광범위하게 사용하지는 않고 있으나 인공지능이 고품질 피싱용 웹사이트를 만드는데 사용될 것으로 예상한다고 밝혔다.
유투브에선 챗GPT가 전성기를 맞고 있다. 인공지능을 이용해 돈을 버는 방법을 가르쳐주는 한 동영상은 클릭수가 수십 만에 달한다. 이들 중 상당수가 가짜 콘텐트를 활용한 의심스러운 돈벌기를 제안한다. e북을 만들어 팔거나 인공지능 생성 콘텐트로 가득한 블로그를 만들면 구글 광고 판매 수익으로 일주일에 수천 달러를 벌수 있다는 식이다.
AI 생성 콘텐트로 돈버는 방법 유투브에서 큰 인기
그러나 구글사는 검색 결과에서 스팸과 조작된 콘텐트를 걸러낸다고 밝히면서 검색 우선 순위를 조작하기 위해 인공지능으로 콘텐트를 만드는 것은 구글의 스팸 정책을 위반하는 것이라고 강조했다.
과학소설 잡지인 클라크스월드는 올해초 온라인 기고를 일시적으로 중단하기도 했다. 수백 편의 인공지능 생성 소설이 쏟아진 때문이다. 유튜브에서 챗GPT를 이용해 클라크스월드에 제출할 소설을 만드는 법이 오른 직후였다.
클라크스월드 등 잡지 편집자들은 인공지능 생성 콘텐트를 걸러내기가 어렵지 않다고 밝힌다. “철자와 문법은 완벽하지만 이야기의 앞뒤가 맞지 않는 경우가 많다”는 것이다. 이야기를 일련의 플롯에 따라 구성한 것이 아니라 이것저것 마구잡이로 섞어서 만들기 때문에 그렇다고 한다.
AI 생성 콘텐트 많아지면 대언어모델 효용 사라져
인공지능이 생성한 스팸들이 인터넷에 넘쳐나는 것은 인공지능 회사에게도 큰 문제가 된다. 대언어모델의 인공지능이 잘못된 정보로 학습하게 되기 때문이다. 연구자들은 인공지능 스팸이 널리 확산되면 대언어모델 자체가 쓸모없어질 수 있다고 전망한다.
영국 옥스퍼드대 응용 및 이론 기계학습그룹의 일리아 슈마일로프 연구원은 스캔과 인쇄를 반복하면 사진의 세부가 손상되는 것처럼 대언어모델도 자신이 생성한 자료를 바탕으로 학습하면서 쓸모가 없어지게 된다고 말했다.
슈마일로프는 대언어모델의 붕괴가 불가피한 것으로 전망하면서 이 문제를 넘어설 수 있는 기술적 대안으로 인간이 생성한 콘텐트만을 대상으로 학습하는 대언어모델을 제시했다.