생성형AI와 

윤리적 사용

지난 2회차에 생성형 AI를 사용하는 방법과 관련된 도서를 알아보았습니다.

생성형 AI를 활용해보며 간단한 문제에 대한 해결, 보고서 작성 등을 넘어 이를 통해 작품 활동을 할 수 있다는 것을 알 수 있었습니다. 그런데 수많은 데이터를 조합하여 결과물을 만드는 생성형 AI가 만든 작품 과연 이 작품이 현실세계에서 작품으로 인정받을 수 있을까요? 만약 인정이 된다면, 이 데이터의 원저작자의 지적 재산권은 침해되지 않을 수 있을까요?

이러한 저작권 문제와 함께 정보가 허위 조작된 정보인지, 정보가 편향된 것은 아닌지 등 같은 다양한 사회적 문제에 대한 우려도 함께 나오고 있습니다.

이번 3회차에서는 AI의 사용 중 발생하는 저작권에 대한 문제와 AI의 윤리적 사용에 대해 다뤄보도록 하겠습니다.

AI로 만든 노래 저작권 문제가 없을까?

  요즘 한창 핫한 생성형 AI로 특정 가수의 목소리를 학습해 커버 노래를 부르게 할 수 있는 컨텐츠. 흥미롭지만 이에 대한 논란도 끊이지 않습니다. 

  노래를 활용하는 것 뿐만아니라, 특정인의 목소리를 무단으로 사용하기 때문이죠. 일단, AI는 법인격이 없으므로 저작권 침해에 대한 책임을 질 수 없습니다. 대신, AI를 학습시킨 기업이나 온라인에 공개한 사람은 저작권 침해로 인정될 수 있습니다. 그리고 AI가 학습하는 과정에서 허락없이 데이터를 사용한 경우, 공정 이용여부가 판단의 기준이 됩니다.

  그렇다면 현재 법은 어느정도 개선이 되고 있을까요? 

AI가 만든 결과물에 저작권을 인정해야하나?

  2022년 AI가 만든 작품이 1위를 하며 큰 화제가 된 적이 있습니다. 처음에는 AI의 우아함에 감탄했지만, 저작권에 대한 논의가 시작되면서 AI 작품에 대한 저작권을 인정할 수 없다는 의견이 나왔습니다. 

  해외에서는 중국에서 디퓨전 모델로 만든 작품에 대해 저작권이 인정된 사례가 있었으며, 한국에서도 AI 기술로 만들어진 작품이 저작권을 인정받은 경우가 있습니다. 한국에서는 사람의 개입이 많았다는 점을 주요 인정요소로 보았습니다.

AI를 만드는 빅테크 기업의 데이터 수집방식에도 저작권 문제가?

  창작물의 저작권 뿐아니라 또하나의 문제는 바로 AI 학습에 사용된 데이터의 저작권 문제입니다. 

  과거 인터넷상 데이터를 몰래 긁어(크롤링) 가져가기도 했습니다. 뉴욕타임스(NYT)는 오픈AI와 구글 등이 저작권법을 무시하고 유튜브에 게재된 영상을 녹취록으로 바꿔 자사의 AI 모델 학습에 사용했다고 복수의 내부 관계자를 인용해 보도했습니다. 

  AI ‘밥’이 모자란다는 얘기가 나오자 도둑질까지 했다는 이야기로 NYT에 따르면 오픈소스 대규모 언어모델(LLM) 라마(LLaMA)를 개발한 메타도 엔지니어와 사내변호사들이 AI 학습에 사용할 데이터를 인터넷에서 무단으로 가져오는 방법을 논의했다고 합니다.

AI가 핸드폰에 들어가면 완벽한 비서의 역할을... 내 개인정보는?

  비단 빅테크 기업과의 문제 뿐 아니라 개인의 개인정보와 관련되 위협도 있습니다. 

  지난 6월 세계 1위 IT기업 애플이 생성형AI의 선두주자 openAI와의 협업을 알렸습니다. 협업을 통해 AI 비서 '시리'가 생성형 AI와 만나 맥락에 맞는 대화가 가능해지면서 이제야 제대로 된 비서 역할을 할 수 있게 되었다는 기대감을 갖게 하였습니다. 

  그러나 영화 아이언맨에 나오는 아이언맨의 인공지능 비서 ‘자비스’처럼 대화를 통해 어떠한 명령이든 들어주게 된다면 굉장히 편할 것 같지만 이는 시리가 내 핸드폰 속 모든 어플리케이션을 계속 들여다 보고 있다는 이야기이기도 합니다.

저작권 만이 문제 일까?

  지난 여름 우리를 놀라게한 사건이 있었습니다.

생성형 AI기술을 활용한 청소년의 성범죄와 관련된 내용이였습니다.

  얼굴 사진을 넣으면 10초면 기존 영상에 얼굴을 덧입힐 수 있는 딥페이크 기술이 범죄에 활용된 것입니다. 이러한 상황은 AI에 대한 불신과 두려움을 키우고 있으며, 심지어 개발을 멈추자는 의견도 나오고 있었습니다.

  딥페이크와 같은 오사용 뿐만 아니라 생성형 AI로 잘못 학습된 AI에게 유해한 답변을 받을 수 있는 가능성 또한 존재합니다.

생성형 AI의 윤리적 사용을 위한 노력

  AI회사들은 이러한 문제를 해결하기 위해 필터링을 하고, 오픈 AI는 이를 검수하는 레드팀을 운영하고 있습니다. 또한 생성형 AI의 무분별한 사용을 막고, 올바르게 활용할 수 있도록 하는 길잡이 역할을 할 수 있는 프로그램이 나오기도 하고 있습니다.

2. 정부의 노력

  지난 2023년 8월 대한민국에서는 각 분야의 디지털 문제를 공론화 하기 위해 온라인 상에 디지털 공론장을 열어 디지털과 관련된 다양한 국민의 의견을 수렴하였으며, 디지털 권리장전을 발표하였습니다. 또한, 인공지능(AI)이 세계에 미칠 영향을 인권 보호라는 관점으로 조명하고 AI 시대를 살아갈 국제사회가 지킬 약속과 원칙을 정해놓은 첫 결의안이 우리나라 주도로 유엔에서 채택되었습니다.

  다만 앞선 디지털권리장전과 인권규범의 법적인 강제성은 없습니다.

3. 법과 교육부의 변화

  올 여름 사건이 보도된 이후 정부와 교육계 그리고 시민들은 디지털 윤리에 대한 심각성을 인지 하게 되었습니다. 이를 통해 결과적으로 24년 9월 26일 국회 본회의에서는 딥페이크 성 착취물을 소지만 해도 징역형에 처할 수 있게 하는 성폭력처벌법 개정안이 되었습니다.

  또한 2025년 부터는 초·중·고등학교 정규 교육과정에서 디지털 윤리 수업이 시작됩니다.

생성형 AI를 긍정적으로 활용하기 위해서는 모두의 노력이 필요하다.

  AI 윤리는 기술 변화와 그것이 개인의 삶에 미치는 영향뿐 아니라 사회와 경제의 변화에 관한 것이기도 합니다. 편견이나 차별의 문제는 이미 AI가 사회적 관련성을 가지고 있음을 보여주고 있죠. 그러나 AI는 또한 경제를 변화시키고 있으며, 따라서 우리 사회의 구조도 바꾸어 가고 있습니다(AI 윤리에 대한 모든 것 / 마크 코켈버그 / p19).