본문 바로가기
Future Strategy/미래 전략

제너레이티브 AI를 걱정해야 하는 10가지 이유

by 홍인브로 2023. 3. 3.
728x90
수십 년의 추측 끝에, 실제 인공지능은 마침내 티핑 포인트에 도달했다. 이제 우리는 ChatGPT와 DALL-E와 같은 인공지능 모델이 무엇을 할 수 있는지 알았으니 걱정해야 할까요?

 

 

ChatGPT와 같은 제너레이티브 AI 모델은 너무 충격적이어서 일부 사람들은 AI가 인간과 동등할 뿐만 아니라 종종 더 똑똑하다고 주장합니다. 그들은 어지러운 스타일로 아름다운 예술 작품을 던집니다. 그들은 풍부한 세부 사항, 아이디어 및 지식으로 가득 찬 텍스트를 만들어 냅니다. 생성 된 인공물은 매우 다양하고 겉보기에 독특하여 기계에서 나온 것이라고 믿기 어렵습니다. 우리는 이제 막 제너레이티브 AI가 할 수 있는 모든 것을 발견하기 시작했다.

일부 관찰자들은 이 새로운 AI가 마침내 튜링 테스트의 문턱을 넘었다고 생각하고 싶어합니다. 다른 사람들은 문턱이 부드럽게 통과되지 않았지만 산산조각이 났다고 생각합니다. 이 예술은 너무 좋아서 확실히 다른 인간 배치가 이미 실업 라인으로 향하고 있습니다.

하지만 일단 경이로움이 사라지면, 생성 인공지능의 원시적인 스타 파워도 사라진다. 일부 관찰자들은 지적인 기계들이 엉뚱한 것이나 부정확한 것을 뱉도록 올바른 방법으로 질문을 하는 스포츠를 만들었다. 초등학교 미술 시간에 인기 있는 논리 폭탄을 배치하는 이들도 있는데, 예를 들어 밤에 태양이나 눈보라 속의 북극곰 사진을 요청하는 것이다. 다른 사람들은 상식이라고도 알려진 AI의 맥락 인식의 한계를 보여주는 이상한 요청을 생성한다. 그렇게 성향이 있는 사람들은 생성적 인공지능이 실패하는 방식을 셀 수 있다.

 

다음은 제너레이티브 AI의 10가지 단점과 결함이다. 이 목록은 기계가 자리를 차지할 수 있다면 일을 잃을 것 같은 작가의 질투 어린 낙서처럼 읽힐 수도 있다. John Henry존 헨리가 steam drill스팀 드릴을 계속 이길 수 있기를 바라는 team human 휴먼을 응원하는 작은 인간이라고 불러주세요. 그러나 우리 모두는 조금 걱정해야 하지 않습니까?

 

  • 표절/Plagiarism
  • 저작권/Copyright
  • 보상되지 않은 노동/Uncompensated labor
  • 정보는 지식이 아니다/Information is not knowledge
  • 지적 침체/Intellectual stagnation
  • 개인 정보 보호 및 보안/Privacy and security
  • 감지되지 않은 편향/Undetected bias
  • 기계 어리 석음/Machine stupidity
  • 인간의 속임수/Human gullibility
  • 무한한 풍요로움/Infinite abundance

 

표절

DALL-E 및 ChatGPT와 같은 제너레이티브 AI 모델이 생성될 때, 그들은 실제로 훈련 세트에 있는 수백만 개의 예제에서 새로운 패턴을 만드는 것입니다. 결과는 다양한 출처에서 가져온 잘라내기 및 붙여넣기 합성이며, 인간이 할 때 표절이라고도 합니다. 물론, 인간도 모방을 통해 배우지만, 어떤 경우에는 차용이 너무 분명해서 초등학교 교사에게 팁을 줄 것입니다. 이러한 AI 생성 콘텐츠는 다소 그대로 표시되는 큰 텍스트 블록으로 구성됩니다. 그러나 때로는 대학 교수 패널조차도 소스를 감지하는 데 어려움을 겪을 수있는 충분한 혼합 또는 합성이 관련되어 있습니다. 어느 쪽이든, 누락 된 것은 독창성입니다. 모든 광택에도 불구하고이 기계는 진정으로 새로운 것을 생산할 수 없습니다.

 

저작권

표절은 주로 학교의 문제이지만 저작권법은 시장에 적용됩니다. 한 사람이 다른 사람의 일을 꼬집으면 수백만 달러의 벌금을 부과할 수 있는 법원에 끌려갈 위험이 있습니다. 그러나 AI는 어떻습니까? 동일한 규칙이 적용됩니까? 저작권법은 복잡한 주제이며 생성 AI의 법적 지위가 정착하는 데 몇 년이 걸릴 것입니다. 그러나 이것을 기억하십시오 : 인공 지능이 인간을 고용 라인에 올려 놓을만큼 충분히 좋아 보이는 일을 생산하기 시작할 때, 그 인간 중 일부는 분명히 소송을 제기하는 데 새로운 여가 시간을 보낼 것입니다.

 

보상되지 않은 노동

표절과 저작권만이 제너레이티브 AI에 의해 제기되는 유일한 법적 문제는 아니다. 변호사들은 이미 소송에 대한 새로운 윤리적 문제를 꿈꾸고 있습니다. 예를 들어, 드로잉 프로그램을 만드는 회사는 인간 사용자의 드로잉 행동에 대한 데이터를 수집 한 다음 AI 교육 목적으로 데이터를 사용할 수 있어야합니까? 인간은 창조 노동의 그러한 사용에 대해 보상을 받아야 하는가? 현재 세대의 AI의 성공의 대부분은 데이터에 대한 액세스에서 비롯됩니다. 그렇다면 데이터를 생성하는 사람들이 작업의 일부를 원할 때 어떤 일이 발생합니까? 공정한 것은 무엇입니까? 합법적 인 것으로 간주되는 것은 무엇입니까?

 

정보는 지식이 아니다

AI는 특히 인간에서 발달하는 데 수년이 걸리는 지능을 모방하는 데 능숙합니다. 인간 학자가 잘 알려지지 않은 17세기 예술가를 소개하거나 거의 잊혀진 르네상스 음조 구조로 새로운 음악을 쓸 수 있다면 우리는 깊은 인상을 받을 충분한 이유가 있습니다. 우리는 그 깊이있는 지식을 개발하는 데 수년간의 연구가 필요하다는 것을 알고 있습니다. AI가 단 몇 개월의 훈련으로 이와 동일한 작업을 수행하면 결과가 눈부시게 정확하고 정확할 수 있지만 뭔가 빠진 것입니다. 잘 훈련된 기계가 수십억 개의 레코드로 가득 찬 디지털 신발 상자에서 올바른 오래된 영수증을 찾을 수 있다면 Aphra Behn과 같은 시인에 대해 알아야 할 모든 것을 배울 수도 있습니다. 기계가 마야 상형 문자의 의미를 해독하도록 만들어졌다고 믿을 수도 있습니다. AI는 인간 창의성의 장난스럽고 예측할 수 없는 면을 모방하는 것처럼 보일 수 있지만 실제로 해낼 수는 없습니다. 한편, 예측 불가능성은 창의적인 혁신을 주도합니다. 패션과 같은 산업은 변화에 중독 될뿐만 아니라 변화에 의해 정의됩니다. 사실, 인공 지능은 그 자리를 차지하고 있으며, 힘들게 얻은 좋은 오래된 인간 지능도 마찬가지입니다.

 

지적 침체

지능에 대해 말하자면, AI는 본질적으로 기계적이고 규칙 기반입니다. AI가 학습 데이터 집합을 살펴보면 모델이 생성되고 해당 모델은 실제로 변경되지 않습니다. 일부 엔지니어와 데이터 과학자는 시간이 지남에 따라 AI 모델을 점진적으로 재교육하여 기계가 적응하는 법을 배울 수 있다고 상상합니다. 그러나 대부분의 경우 아이디어는 특정 지식을 고정 된 형태로 인코딩하는 복잡한 뉴런 세트를 만드는 것입니다. 불변성은 그 자리를 차지하고 있으며 특정 산업에서 작동 할 수 있습니다. AI의 위험은 훈련 데이터의 시대정신에 영원히 갇혀 있다는 것입니다. 우리 인간이 생성 AI에 너무 의존하여 더 이상 모델 훈련을위한 새로운 자료를 생산할 수 없으면 어떻게됩니까?

 

개인 정보 보호 및 보안

AI에 대한 훈련 데이터는 어딘가에서 가져와야하며 신경망 내부에 무엇이 갇혀 있는지 항상 확신 할 수있는 것은 아닙니다. AI가 훈련 데이터에서 개인 정보를 유출하면 어떻게 될까요? 설상가상으로 AI는 매우 유연하게 설계되었기 때문에 AI를 잠그는 것이 훨씬 더 어렵습니다. 관계형 데이터베이스는 개인 정보가 있는 특정 테이블에 대한 액세스를 제한할 수 있습니다. 그러나 AI는 수십 가지 방법으로 쿼리할 수 있습니다. 공격자는 원하는 민감한 데이터를 얻기 위해 올바른 방법으로 올바른 질문을 하는 방법을 빠르게 배울 수 있습니다. 예를 들어 특정 자산의 위도와 경도가 잠겨 있다고 가정해 보겠습니다. 영리한 공격자는 해당 위치에서 몇 주에 걸쳐 태양이 떠오르는 정확한 순간을 요청할 수 있습니다. 충실한 AI가 대답하려고 노력할 것입니다. AI에게 개인 데이터를 보호하도록 가르치는 것은 아직 이해하지 못하는 것입니다.

 

감지되지 않은 편향

심지어 초기 메인프레임 프로그래머들도 GIGO 또는 "garbage in, garbage out"이라는 약어를 만들 때 컴퓨터 문제의 핵심을 이해했습니다. 인공지능과 관련된 많은 문제는 열악한 훈련 데이터에서 비롯됩니다. 데이터 집합이 부정확하거나 치우친 경우 결과에 반영됩니다.

제너레이티브 AI의 핵심에 있는 하드웨어는 Spock스팍처럼 로직 중심일 수 있지만, 기계를 구축하고 훈련시키는 인간은 그렇지 않다. 편견과 당파성은 AI 모델로 향하는 것으로 나타났습니다. 아마도 누군가가 편향된 데이터를 사용하여 모델을 만들었을 것입니다. 아마도 모델이 특정 핫 버튼 질문에 답하지 못하도록 재정의를 추가했을 것입니다. 아마도 그들은 고정 배선 된 답변을 넣었고, 그러면 감지하기가 어려워 질 것입니다. 인간은 AI가 우리의 유해한 신념을위한 훌륭한 수단이되도록 여러 가지 방법을 발견했습니다.

 

기계 어리 석음

AI 모델은 다른 많은 일을 잘하기 때문에 실수를 저지르는 것을 용서하기 쉽습니다. AI는 인간과 다르게 생각하기 때문에 많은 실수를 예상하기 어렵습니다. 예를 들어, 텍스트 이미지 변환 함수의 많은 사용자는 AI가 계산과 같은 단순한 것을 잘못한다는 것을 발견했습니다. 인간은 초등학교 초기에 기본 산수를 습득 한 다음이 기술을 다양한 방식으로 사용합니다. 10 살짜리 아이에게 문어를 스케치하도록 요청하면 아이는 거의 확실하게 다리가 8개인 지 확인합니다. 현재 버전의 AI는 수학의 추상적이고 문맥적인 사용과 관련하여 허둥대는 경향이 있습니다. 모델 빌더가 경과에 약간의 주의를 기울이면 쉽게 바뀔 수 있지만 다른 것들이있을 것입니다. 기계 지능은 인간의 지능과 다르며 이는 기계의 어리석음도 다를 것임을 의미합니다.

 

인간의 속임수

때때로 우리 인간은 그것을 깨닫지 못한 채 AI 지능의 격차를 메우는 경향이 있습니다. 누락된 정보를 채우거나 답변을 보간합니다. AI가 Henry VIII헨리 8세가 아내를 죽인 왕이라고 말하면 우리 자신도 그 역사를 모르기 때문에 의문을 제기하지 않습니다. 우리는 카리스마 넘치는 발표자가 손을 흔들 때와 같은 방식으로 AI가 정확하다고 가정합니다. 주장이 확신을 가지고 이루어지면 인간의 마음은 그것을 진실하고 올바른 것으로 받아들이는 경향이 있습니다.

제너레이티브 AI 사용자에게 가장 까다로운 문제는 AI가 언제 잘못되었는지 아는 것이다. 기계는 인간이 할 수있는 방식으로 거짓말을 할 수는 없지만 훨씬 더 위험합니다. 그들은 완벽하게 정확한 데이터의 단락을 생성 한 다음 아무도 알지 못하는 사이에 추측이나 노골적인 비방으로 방향을 바꿀 수 있습니다. 중고차 딜러나 포커 플레이어는 자신이 언제 퍼지는지 아는 경향이 있으며 대부분은 자신의 비방을 드러내는 말을 합니다. AI는 그렇지 않습니다.

 

무한한 풍요로움

디지털 콘텐츠는 무한히 재현 가능하며, 이는 이미 희소성을 중심으로 구축된 많은 경제 모델에 부담을 주었습니다. 제너레이티브 AI는 이러한 모델을 더욱 깨뜨릴 것입니다. 생성 AI는 일부 작가와 예술가를 실직시킬 것입니다. 그것은 또한 우리 모두가 살고있는 많은 경제적 규칙을 뒤집습니다. 광고 지원 콘텐츠는 광고와 콘텐츠가 모두 끝없이 재결합되고 재생성될 수 있을 때 작동합니까? 인터넷의 무료 부분이 웹 페이지의 광고를 클릭하는 봇의 세계로 내려갈 것인가? 모두 생성 AI에 의해 만들어지고 무한히 재현 가능할까요? 그렇게 쉬운 풍요는 경제의 구석구석을 파괴할 수 있습니다. 사람들은 대체 불가능한 토큰을 영원히 복사 할 수 있다면 계속 비용을 지불 할 것입니까? 예술을 만드는 것이 그렇게 쉽다면 여전히 존중받을 수 있습니까? 여전히 특별할까요? 특별하지 않다면 아무도 신경 쓰지 않을까요? 모든 것이 당연하게 여겨질 때 모든 것이 가치를 잃을 수 있습니까? 이것이 셰익스피어가 터무니없는 행운의 물매와 화살에 대해 말할 때 의미했던 것입니까? 스스로 대답하려고하지 맙시다. 생성 AI에게 재미있고 이상하며 궁극적으로 옳고 그름 사이의 지하 세계에 신비하게 갇혀있는 답을 물어 봅시다.

 

 

Image ⓒ Gearstd Shutterstock

 

 

 

 

 

-----

P. Wayner, InfoWorld, 13 Feb. 2023

728x90

댓글