Love, Knowledge, Pity + Freedom

AI를 정말 규제할 수 있을까요? 본문

EV, Tech & Science

AI를 정말 규제할 수 있을까요?

Russell(Yun) 2023. 7. 6. 14:46
728x90
728x90

정부와 기술 리더 모두 AI 규제를 검토하고 있다. Credit: HelloRF Zcool via Shutterstock.

2000년, 구글의 공동 창업자인 래리 페이지는 인터뷰에서 회사의 20년 로드맵에 대한 질문을 받았습니다. 그는 이렇게 대답했습니다. "구글의 검색 엔진이 AI로 완성될 때 비로소 구글의 사명은 완수될 것입니다. 그게 무슨 뜻인지 아시나요? 바로 인공 지능입니다."

지금 생각해 보면 그의 대답은 놀라운 것이었지만, 실리콘밸리 외부에서 이를 주목한 사람은 아무도 없었을까요? 그 속에는 구글이 AI 개발을 주도하겠다는 암시나 숨겨진 의도가 전혀 없었고, 단지 최종 목표에 대한 한 엔지니어의 선명한 시선만이 있었을 뿐입니다.

페이지가 AI 야망을 선언한 이후 수십 년 동안 기술은 모바일화되고, 클라우드에 진입했으며, 금융 및 정치적 위기의 소용돌이에 휘말리기도 했고, 증강/가상현실, 암호화폐, 메타버스를 둘러싼 다양한 열풍에 휩쓸리기도 했습니다.

한편, 인공지능의 초기 방향에 대한 비판적인 논의는 이미 진행 중이었습니다. 테슬라의 창업자인 일론 머스크는 인간을 능가하는 일반 인공지능이 인간이 더 이상 기계에 쓸모가 없어지면 인류를 멸종시킬 수 있다는 우려를 제기하자 페이지가 자신을 '종차별주의자'라고 비난했다고 공개적으로 밝힌 바 있습니다.

이 대화는 2022년 11월에 출시되어 역사상 가장 빠르게 다운로드된 앱이 된 OpenAI의 제너레이티브 AI 챗봇 ChatGPT가 출시되기 10년 전의 일입니다. AI가 대중의 관심을 끌면서 정부는 더 이상 그 영향력을 무시할 수 없게 되었습니다.

투자자들도 주목했습니다. 2023년에 이미 실리콘밸리의 전설적인 액셀러레이터인 Y-Combinator가 선정한 기업 중 AI에 중점을 둔 스타트업이 35%를 차지했습니다. 리서치 애널리스트인 글로벌데이터에 따르면 AI 시장에 대한 글로벌 투자는 2021년 1,272억 달러로 정점을 찍은 후 2022년 729억 달러로 크게 감소했습니다. 그러나 2023년에는 AI 벤처 펀딩 열풍과 함께 생성형 AI 인수가 급증하면서 꾸준히 주목을 받고 있습니다.

그러나 베테랑 투자자 워런 버핏과 같은 일부 사람들은 주의를 기울여야 한다고 경고합니다. 버핏은 AI 개발을 핵무기에 비유했습니다. 대다수의 사용 사례와 애플리케이션은 긍정적일 가능성이 높지만, 소수의 유해한 사례는 인류를 파괴할 수 있다는 것입니다. 

다른 사람들은 잘못된 정보의 확산, 일자리 손실, 세계 평화와 민주주의에 대한 위협과 같은 단기적인 피해를 예로 들기도 합니다.

이러한 우려는 기술을 개발한 사람들도 공감하고 있습니다. 2023년 3월, 머스크를 포함한 수백 명의 AI 전문가들이 서명한 공개서한은 규제 감독과 일방적인 합의 없이 너무 빠르게 발전하는 것의 위험성을 경고하며 AI 개발을 중단할 것을 촉구했습니다.

AI는 어떻게 규제되어야 할까?

2023년 5월, ChatGPT 제조업체인 Open AI의 CEO인 샘 알트먼은 미국 의회 청문회에 출석하여 대규모 언어 모델(LLM)을 학습하는 모든 기업에 라이선스를 요구하는 등 AI를 감독하는 전담 연방 기관을 설립할 것을 제안했습니다.

실리콘 밸리의 리더들이 AI 개발에 대한 규제 가드레일을 요구하고 있지만 투자자들은 여전히 불안해하고 있습니다. NVIDIA와 AMD와 같은 AI 칩 제조업체 및 신생 AI 스타트업 주식에 자본이 몰리는 것은 지금까지 실리콘 밸리가 '빠르게 움직여 새로운 것을 만들어내는' 반면, 기술자들은 일반적으로 투자자들이 따라오기를 기다리던 기존 역학 관계의 반전입니다.

그럼에도 불구하고 AI 낙관론자와 카산드라의 반대 진영은 접근 방식은 다르지만 모두 규제를 요구하고 있는 것으로 보입니다. 일부 업계 리더들은 무턱대고 강제하는 규제가 혁신을 저해할 수 있다고 생각합니다. 

6월 30일, 르노에서 메타에 이르는 다양한 기업의 임원 160여 명이 서명한 공개서한은 EU가 새로 비준한 AI 법안이 유럽의 글로벌 기술 경쟁력과 리더십에 해를 끼칠 것이라고 경고했습니다.

글로벌데이터의 2023 AI 주제별 인텔리전스 보고서는 규제가 글로벌 AI 시장의 성장을 어떻게 저해할 수 있는지에 대해 설명합니다. 이 분석가는 전 세계 전문 AI 애플리케이션 시장이 2022년 311억 달러에서 2030년 1460억 달러 규모로 연평균 21.3% 성장할 것으로 예측하고 있습니다.

728x90

애널리스트는 이 시장에 대한 예측을 대화형 플랫폼, 컴퓨터 비전, 이미지 인식, 자연어 처리 및 생성, 감정 분석과 같은 AI 기반 기능이 내장된 수평적 애플리케이션 등 특정 하위 카테고리로 세분화했습니다.

이러한 잠재적 이익에도 불구하고 규제 부담의 주체가 정부인지 업계인지에 대한 물음표는 여전히 남아 있습니다. 경제정책연구센터 소속이자 런던 퀸메리대학교 경제학 부교수인 안드레아 테세이는 이것이 바로 수십억 달러 규모의 문제라고 말합니다. 

정책 입안자들이 규제 프레임워크를 마련하기 위해 동분서주하는 동안, 기술의 기본을 이해하는 사람들은 AI가 궁극적으로 이를 구축하는 사람들에 의해서만 자율적으로 규제될 수 있는지에 대한 우려를 표명하고 있습니다.

"정부 간에는 많은 변화가 있습니다. 그리고 궁극적으로는 규제가 본질적으로 기술보다 뒤처진다는 점에서 문제가 더 깊다고 생각합니다. 규제는 인간과 기술에 의해 어느 정도는 그 자체로 규제되어야 합니다. 우리는 아직 인공지능이 어떤 존재가 될지 완전히 알지 못합니다. 

그리고 앞으로 어떤 문제가 발생할지 예측하기 어렵기 때문에 어떤 규제를 만들 수 있더라도 어느 정도는 소급 적용됩니다. 더 많은 규제가 필요할 때 정부가 개입할 것입니다. 하지만 이미 피해는 어느 정도 발생했습니다."라고 그는 말합니다.

지금까지 규제의 부재로 인해 AI 개발은 실리콘 밸리에서 영향력이 큰 소수의 사람들이 주도하고 있습니다. 일부에서는 징벌적 접근 방식보다는 이러한 기술 리더들과의 협력에 초점을 맞춰 해결책을 찾아야 한다고 생각합니다. 이 진영에서는 AI 모델에 대한 비즈니스 라이선스를 새로운 문제에 구식 솔루션을 적용하는 것으로 간주합니다.

LLM은 소프트웨어 모델을 빠르게 확산시키고 있습니다. 오픈 소스 LLM은 곧 스마트폰에서 널리 다운로드할 수 있게 될 것이며, 최종 사용자가 구분할 수 없는 제품 및 애플리케이션의 레이어에 자리 잡을 것입니다. LLM 감사와 관련된 규제 체계를 만드는 것은 현시점에서 완전히 비현실적일 수 있습니다. 많은 사람들은 이미 너무 늦었다고 생각합니다.

예를 들어, '이머전트 프로퍼티'라고 불리는 AI 개발의 변칙성은 AI 시스템이 프로그래밍되지 않은 기술을 갑자기 예측할 수 없이 습득하는 시나리오를 말합니다. AI 개발이 계속됨에 따라 머신러닝의 이면에 있는 프로세스에 대한 인간의 이해는 점점 더 불투명해지고 예측하기 어려워질 것입니다. 이러한 결과를 어떻게 규제하고 누가 책임을 져야 하는지에 대한 의문이 제기될 수 있습니다.

글로벌데이터의 애널리스트 조셉 보리에 따르면, 자율 규제가 제대로 작동하지 않는 이유는 강제력이 부족하기 때문이라고 합니다. "궁극적으로 기술 기업은 이윤을 극대화하는 조직이기 때문에 규제를 희석하기 위해 속임수를 쓰거나 로비를 할 강력한 인센티브가 있습니다. 

그리고 이는 대기업이 자율 규제를 수립하는 업계 단체를 지배하는 자율 규제 환경에서는 훨씬 더 쉽습니다."라고 그는 말합니다.

보리는 지나치게 야심 찬 입법을 목표로 하기보다는 단계적으로 기술을 규제하는 것이 최선의 접근법이라고 생각합니다. "업계를 올바른 방향으로 이끄는 몇 가지 일반적인 원칙을 수립한 다음 자주 재검토하는 것이 더 효과적입니다."라고 그는 신중한 접근 방식을 취하고 있는 유럽연합의 AI 법을 예로 들며 말합니다.

지난 6월 14일, 유럽 의회는 유럽의 AI 법을 승인함으로써 이 무역 블록이 AI로 인한 혼란에 대비해 포괄적인 규칙을 비준한 최초의 지역이 되었습니다.

보리는 이 규칙에 생체 인식 감시 및 예측 치안 시스템 금지, 정보 공개 및 리스크 원칙, 고위험 AI 시스템 등록 요건 등 몇 가지 주요 원칙이 포함되었다고 말합니다. "하지만 현재로서는 ChatGPT나 LLAMA와 같은 LLM을 고위험으로 정의하는 데는 미치지 못합니다. 이는 향후 검토 과정에서 변경될 수 있지만 올바른 방향으로 출발한 것으로 보입니다."라고 보리는 덧붙입니다.

AI에 대한 정부 규제가 효과적일까?

빅 테크에 대한 규제 노력은 한동안 계속되어 왔습니다. 그러나 수십 년 동안 널리 채택되고 빅 테크가 글로벌 경제에 필수적인 요소가 된 이후에도 독점적 행위를 방지하는 것은 기술 경쟁의 장을 유지하는 것은 여전히 어려운 과제입니다. 현재 AI 개발을 주도하고 있는 것은 바로 이러한 기업들입니다.

최초의 일반 AI를 개발하기 위한 경쟁은 이제 시작 단계를 훨씬 넘어섰습니다. 이 목표가 달성되면 빅 테크의 권력 집중에 대한 현재의 우려는 미미한 것으로 보일 수 있습니다. 이는 아마도 새로운 신기술에 낡은 규제 패러다임을 적용하는 것이 얼마나 무의미한 일인지에 대한 의문을 제기합니다. 

모든 이해관계자 간에 협업과 설득이 필요하다는 데는 많은 사람이 동의합니다. 인간은 여전히 사이보그가 아닌 사회적 동물이지만, 많은 사람들은 AI 개발을 주도하는 사람들이 '종차별주의자' 진영에 굳건히 머물러 있다고 믿고 있습니다.

ref. https://www.verdict.co.uk/ai-regulation-can-anyone-really-regulate-ai/

 

Can anyone really regulate AI?

Business licences for AI models have been proposed by policy makers and tech leaders but can they fix AI regulation?

www.verdict.co.uk

 

728x90
728x90
LIST
Comments