비탈릭 부테린: 크립토+AI 응용 전망과 도전
작성자: Vitalik Buterin
편집: Karen, Foresight News
특별히 Worldcoin과 Modulus Labs 팀, Xinyuan Sun, Martin Koeppelmann, Illia Polosukhin의 피드백과 논의에 감사드립니다.
수년 동안 많은 사람들이 저에게 이렇게 질문했습니다: "암호화폐와 AI 사이의 가장 생산적인 교차점은 어디인가?" 이는 합리적인 질문입니다: 암호화폐와 AI는 지난 10년 동안 두 가지 주요 심층(소프트웨어) 기술 트렌드이며, 두 가지 사이에는 반드시 어떤 연관성이 존재합니다.
표면적으로는 두 가지의 시너지를 찾는 것이 쉽습니다: 암호화폐의 탈중앙화는 AI의 중앙집중화를 균형 있게 만들 수 있으며, AI는 불투명하고 암호화폐는 투명성을 가져올 수 있습니다; AI는 데이터가 필요하고 블록체인은 데이터를 저장하고 추적하는 데 능숙합니다. 그러나 수년 동안 사람들이 저에게 구체적인 응용 프로그램에 대해 깊이 탐구해 달라고 요청할 때, 제 대답은 항상 실망스러웠습니다: "네, 탐구할 만한 응용 프로그램이 몇 가지 있지만 많지는 않습니다."
지난 3년 동안 현대 LLM(대형 언어 모델)과 같은 더 강력한 AI 기술의 출현과 블록체인 확장 솔루션뿐만 아니라 제로 지식 증명, 전동 동형 암호화, (양자 및 다자) 안전 다자 계산과 같은 더 강력한 암호화폐 기술의 출현으로 인해 저는 이러한 변화가 보이기 시작했습니다. 블록체인 생태계 내에서 또는 AI와 암호학을 결합할 때, 실제로 몇 가지 유망한 AI 응용 프로그램이 존재하지만 AI를 사용할 때는 주의가 필요합니다. 특별한 도전 과제는 다음과 같습니다: 암호학에서 오픈 소스는 어떤 것을 진정으로 안전하게 만드는 유일한 방법이지만, AI에서는 개방형 모델(심지어 그 훈련 데이터조차도) 적대적 기계 학습 공격에 대한 취약성을 크게 증가시킵니다. 이 글에서는 Crypto+AI가 교차할 수 있는 다양한 방식을 분류하고 각 분류의 전망과 도전을 탐구할 것입니다.
uETH 블로그 글에서의 Crypto+AI 교차점 요약. 하지만 이러한 시너지를 실제 응용 프로그램에서 어떻게 실현할 수 있을까요?
Crypto+AI 네 가지 교차점
AI는 매우 광범위한 개념입니다: AI를 알고리즘 집합으로 볼 수 있으며, 당신이 만든 알고리즘은 명시적으로 지정하는 것이 아니라, 큰 계산 수프(computational soup)를 섞고 어떤 최적화 압력을 가하여 원하는 속성을 가진 알고리즘을 생성하도록 유도합니다.
이 설명은 결코 경시되어서는 안 됩니다. 왜냐하면 그것은 우리 인간의 창조 과정을 포함하고 있기 때문입니다! 그러나 이것은 또한 AI 알고리즘이 몇 가지 공통된 특성을 가지고 있다는 것을 의미합니다: 그들은 매우 강력한 능력을 가지고 있지만, 우리는 그 내부 작동 과정을 이해하거나 파악하는 데 한계가 있습니다.
AI를 분류하는 방법은 여러 가지가 있으며, 본문에서 논의하는 AI와 블록체인 간의 상호작용에 대해 (Virgil Griffith의 "글자 그대로 이더리움은 게임 규칙을 변화시키는 기술" 기사) 다음과 같이 분류하겠습니다:
AI를 게임의 참여자로서(가장 높은 실행 가능성): AI가 참여하는 메커니즘에서 인센티브의 궁극적인 출처는 인간 입력의 프로토콜입니다.
AI를 게임 인터페이스로서(잠재력이 크지만 위험이 존재): AI는 사용자가 주변의 암호화 세계를 이해하도록 돕고, 그들의 행동(예: 서명된 메시지와 거래)이 그들의 의도와 일치하도록 보장하여 속임수나 사기를 피하도록 합니다.
AI를 게임 규칙으로서(매우 신중해야 함): 블록체인, DAO 및 유사한 메커니즘이 AI를 직접 호출합니다. 예를 들어, "AI 판사".
AI를 게임 목표로서(장기적이고 흥미로운): 블록체인, DAO 및 유사한 메커니즘의 목표는 다른 목적에 사용할 수 있는 AI를 구축하고 유지하는 것이며, 암호 기술의 일부는 더 나은 훈련 인센티브를 제공하거나 AI가 개인 데이터를 유출하거나 남용되는 것을 방지하기 위한 것입니다.
하나씩 살펴보겠습니다.
AI를 게임 참여자로서
실제로 이 범주는 거의 10년 동안 존재해 왔으며, 적어도 체인 기반 탈중앙화 거래소(DEX)가 널리 사용되기 시작한 이후로 존재해 왔습니다. 거래소가 존재할 때마다 차익 거래를 통해 돈을 벌 기회가 있으며, 로봇은 인간보다 더 잘 차익 거래를 할 수 있습니다.
이러한 사용 사례는 오랫동안 존재해 왔으며, 현재보다 훨씬 단순한 AI를 사용하더라도 결국 AI와 암호화폐의 진정한 교차점이었습니다. 최근 우리는 MEV(최대 추출 가치) 차익 거래 로봇이 서로를 활용하는 모습을 자주 목격하고 있습니다. 경매나 거래가 관련된 블록체인 응용 프로그램에서는 언제나 차익 거래 로봇이 존재합니다.
그러나 AI 차익 거래 로봇은 더 큰 범주의 첫 번째 예일 뿐이며, 저는 곧 많은 다른 응용 프로그램이 포함될 것이라고 예상합니다. AI를 참여자로서 활용한 예측 시장인 AIOmen을 살펴보겠습니다:
예측 시장은 오랫동안 인지 기술의 성배로 여겨져 왔습니다. 2014년에는 예측 시장을 거버넌스의 입력(미래 지배)으로 사용하는 것에 대해 흥미를 느꼈고, 최근의 선거에서 광범위하게 시도해 보았습니다. 그러나 지금까지 예측 시장은 실제로 큰 진전을 이루지 못했습니다. 그 이유는 여러 가지가 있습니다: 가장 큰 참여자는 종종 비합리적이며, 올바른 인식을 가진 사람들은 많은 사람들이 돈에 관련되지 않는 한 시간과 돈을 투자하려 하지 않으며, 시장은 일반적으로 충분히 활발하지 않기 때문입니다.
이에 대한 한 가지 반응은 Polymarket 또는 다른 새로운 예측 시장에서 진행 중인 사용자 경험 개선을 지적하고, 이전의 반복 실패에서 지속적으로 개선하여 성공할 수 있기를 희망하는 것입니다. 사람들은 스포츠에 수백억 달러를 베팅할 의향이 있다면, 왜 미국 대선이나 LK99에 충분한 돈을 베팅하지 않아서 진지한 플레이어들이 참여하도록 만들지 않을까요? 그러나 이 주장은 이전 버전이 이러한 규모에 도달하지 못했다는 사실에 직면해야 하며(적어도 그 지지자들의 꿈과 비교할 때), 따라서 예측 시장이 성공하기 위해서는 새로운 요소가 필요할 것 같습니다. 따라서 또 다른 반응은 2020년대에 우리가 기대할 수 있는 예측 시장 생태계의 특정 특성을 지적하는 것입니다. 이는 AI의 광범위한 참여 가능성입니다.
AI는 시간당 1달러도 안 되는 가격으로 일할 수 있으며, 백과사전 같은 지식을 가지고 있습니다. 만약 그것이 충분하지 않다면, 실시간 웹 검색 기능과 통합할 수도 있습니다. 만약 당신이 시장을 만들고 50달러의 유동성 보조금을 제공한다면, 인간은 입찰에 관심을 두지 않겠지만 수천 개의 AI가 몰려들어 그들이 할 수 있는 최선의 추측을 할 것입니다.
어떤 문제에서 잘하는 동기는 매우 작을 수 있지만, 좋은 예측을 할 수 있는 AI를 만드는 동기는 수백만에 이를 수 있습니다. 주목할 점은, 대부분의 문제에 대해 인간이 판별할 필요가 없다는 것입니다: Augur 또는 Kleros와 유사한 다단계 분쟁 시스템을 사용하여 AI가 초기 라운드에도 참여할 수 있습니다. 인간은 일련의 업그레이드가 발생하고 양측이 많은 자금을 투자한 경우에만 반응하면 됩니다.
이것은 강력한 원리입니다. 왜냐하면 "예측 시장"이 이렇게 미세한 규모에서 작동할 수 있다면, "예측 시장" 원리를 다른 유형의 문제에 반복적으로 적용할 수 있기 때문입니다. 예를 들어:
- [이용 약관]에 따라 이 소셜 미디어 게시물이 수용될 수 있습니까?
- 주식 X의 가격은 어떻게 변할까요(예: Numerai 참조)
- 현재 저에게 메시지를 보내고 있는 이 계정은 정말 엘론 머스크인가요?
- 온라인 작업 시장에 제출된 이 작업은 수용될 수 있습니까?
- https://examplefinance.network의 DApp은 사기인가요?
- 0x1b54….98c3은 "Casinu In" ERC20 토큰 주소인가요?
당신은 아마도 많은 아이디어가 제가 앞서 언급한 "정보 방어(info defense)" 방향으로 나아가고 있다는 것을 알 수 있을 것입니다. 일반적으로 질문은: 우리는 어떻게 사용자가 진짜 정보와 가짜 정보를 구별하고 사기를 인식하도록 도울 수 있을까요? 중앙집중식 권위 기관에게 옳고 그름을 결정할 권한을 부여하지 않고 말입니다. 미시적 관점에서 답은 "AI"일 수 있습니다.
그러나 거시적 관점에서 질문은: 누가 AI를 구축했는가? AI는 그 창조 과정의 반영이므로 편견이 불가피하게 존재합니다. 다양한 AI의 성과를 판단하기 위해 더 높은 수준의 게임이 필요하며, AI가 플레이어로서 게임에 참여할 수 있습니다.
AI를 이러한 방식으로 사용하는 것은 AI가 메커니즘에 참여하여 궁극적으로 인간으로부터 보상을 받거나 처벌을 받는(확률적 방식으로) 시스템을 통해 이루어지며, 이는 매우 연구할 가치가 있다고 생각합니다. 지금은 이러한 사용 사례를 더 깊이 연구할 적절한 시점입니다. 왜냐하면 블록체인의 확장성이 마침내 성공을 거두어 이전에는 체인에서 구현할 수 없었던 "미세한" 모든 것이 이제 가능해졌기 때문입니다.
관련된 응용 프로그램의 한 종류는 고도로 자율적인 에이전트를 향해 발전하고 있으며, 블록체인을 통해 더 나은 협력을 이루고 있습니다. 이는 지불을 통해서든 스마트 계약을 통해 신뢰할 수 있는 약속을 하는 방식으로 이루어집니다.
AI를 게임 인터페이스로서
제가 "My techno-optimism"에서 제안한 아이디어 중 하나는, 사용자에게 위험을 설명하고 인식함으로써 사용자의 이익을 보호하는 소프트웨어를 작성하는 시장 기회가 있다는 것입니다. MetaMask의 사기 감지 기능은 이미 존재하는 예입니다.
또 다른 예는 Rabby 지갑의 시뮬레이션 기능으로, 사용자가 서명할 거래의 예상 결과를 보여줍니다.
이러한 도구는 AI에 의해 강화될 가능성이 있습니다. AI는 당신이 참여하는 DApp이 어떤 것인지, 당신이 서명하는 더 복잡한 작업의 결과, 특정 토큰이 진짜인지(예: BITCOIN은 단순한 문자열이 아니라 실제 암호화폐의 이름이며, ERC20 토큰이 아니고 가격이 0.045달러를 훨씬 초과함) 등을 설명하는 더 풍부하고 인간 이해에 맞는 설명을 제공할 수 있습니다. 몇몇 프로젝트는 이 방향으로 전력을 다하고 있습니다(예: AI를 주요 인터페이스로 사용하는 LangChain 지갑). 개인적으로는 현재 순수한 AI 인터페이스는 너무 큰 위험이 있다고 생각합니다. 왜냐하면 그것이 다른 유형의 오류의 위험을 증가시키기 때문입니다. 그러나 AI와 더 전통적인 인터페이스가 결합되는 것은 매우 실행 가능해집니다.
특정 위험을 언급할 가치가 있습니다. 아래 "AI를 게임 규칙으로서" 부분에서 더 자세히 설명하겠지만, 일반적인 문제는 적대적 기계 학습입니다: 만약 사용자가 오픈 소스 지갑 내에 AI 도우미를 가지고 있다면, 나쁜 사람들도 그 AI 도우미에 접근할 기회를 가지게 되므로 그들은 그 지갑의 방어를 피하기 위해 그들의 사기를 최적화할 무한한 기회를 가지게 됩니다. 모든 현대 AI는 특정 결함을 가지고 있으며, 모델에 대한 제한된 접근 권한을 가진 훈련 과정에서도 이러한 결함을 찾는 것은 매우 쉽습니다.
특별히 언급할 가치가 있는 위험이 있습니다. 아래 "AI를 게임 규칙으로서" 부분에서 더 자세히 논의하겠지만, 일반적인 문제는 적대적 기계 학습입니다: 만약 사용자가 오픈 소스 지갑 내의 AI 도우미에 접근할 수 있다면, 나쁜 사람들도 그 AI 도우미에 접근할 수 있게 되므로 그들은 그 지갑의 방어를 피하기 위해 그들의 사기를 최적화할 무한한 기회를 가지게 됩니다. 모든 현대 AI는 어딘가에 결함이 있으며, 훈련 과정에서 모델에 대한 접근 권한이 제한적일지라도 이를 찾는 것은 그렇게 어렵지 않습니다.
이것이 "AI가 체인 기반 미세 시장에 참여하는" 효과가 더 나은 이유입니다: 각 개별 AI는 동일한 위험에 직면하지만, 당신은 의도적으로 수십 개의 사람들이 지속적으로 반복하고 개선하는 개방 생태계를 만들 수 있습니다.
또한 각 개별 AI는 폐쇄적입니다: 시스템의 보안은 게임 규칙의 개방성에서 나오며, 각 참여자의 내부 작동에서 나오지 않습니다.
요약하자면: AI는 사용자가 발생하고 있는 일을 간단한 언어로 이해하도록 도와줄 수 있으며, 실시간 멘토 역할을 할 수 있고, 잘못된 영향을 받지 않도록 사용자를 보호할 수 있지만, 악의적인 오도자와 사기꾼을 만날 때 주의해야 합니다.
AI를 게임 규칙으로서
이제 많은 사람들이 흥미를 느끼는 응용 프로그램에 대해 논의해 보겠습니다. 그러나 저는 이것이 가장 위험하다고 생각하며, 우리는 극도로 신중하게 행동해야 합니다: 제가 말하는 AI는 게임 규칙의 일부입니다. 이는 주류 정치 엘리트가 "AI 판사"에 대해 흥분하는 것과 관련이 있습니다(예: "세계 정부 정상 회담" 웹사이트에서 관련 기사를 볼 수 있습니다). 블록체인 응용 프로그램에서도 이러한 욕망이 존재합니다. 만약 블록체인 기반의 스마트 계약이나 DAO가 주관적인 결정을 내려야 한다면, AI를 계약이나 DAO의 일부로 만들어 이러한 규칙을 실행하는 데 도움을 줄 수 있을까요?
여기서 적대적 기계 학습이 극도로 어려운 도전이 될 것입니다. 다음은 간단한 논점입니다:
만약 메커니즘에서 핵심 역할을 하는 AI 모델이 폐쇄적이라면, 그 내부 작동을 검증할 수 없으므로 그것은 중앙집중식 응용 프로그램보다 나아지지 않습니다.
만약 AI 모델이 개방적이라면, 공격자는 로컬에서 다운로드하여 시뮬레이션할 수 있으며, 모델을 속이기 위해 고도로 최적화된 공격을 설계할 수 있습니다. 그런 다음 그들은 실시간 네트워크에서 해당 모델을 재생할 수 있습니다.
적대적 기계 학습 예시. 출처: researchgate.net
이 블로그를 자주 읽는 독자(또는 암호화폐 원주율 주민)는 제가 무슨 말을 하고 있는지 이해하기 시작했을 것입니다. 하지만 잠시만 기다려 주세요.
우리는 고급 제로 지식 증명 및 기타 매우 멋진 암호학 형태를 가지고 있습니다. 우리는 확실히 어떤 암호 마법을 사용하여 모델의 내부 작동을 숨길 수 있으며, 공격자가 공격을 최적화할 수 없도록 하면서 모델이 올바르게 실행되고 있다는 것을 증명할 수 있습니다. 또한 합리적인 훈련 과정에서 합리적인 기본 데이터 세트에서 구축되었다는 것을 증명할 수 있습니다.
일반적으로 이것이 제가 이 블로그와 다른 기사에서 옹호하는 사고 방식입니다. 그러나 AI 계산과 관련된 경우 두 가지 주요 반대가 존재합니다:
- 암호학적 오버헤드: SNARK(또는 MPC 등)에서 작업을 수행하는 것은 명시적 실행보다 훨씬 비효율적입니다. AI 자체가 이미 높은 계산 요구를 가지고 있다는 점을 고려할 때, 암호학적 블랙박스에서 AI 계산을 수행하는 것이 계산적으로 실행 가능한가요?
- 블랙박스 적대적 기계 학습 공격: 모델의 내부 작동을 이해하지 못하더라도 AI 모델에 대한 공격을 최적화할 수 있는 방법이 있습니다. 너무 철저하게 숨기면, 훈련 데이터를 선택하는 사람을 통해 중독 공격으로 모델의 무결성을 손상시킬 수 있습니다.
이 두 가지는 복잡한 토끼 굴이며, 각각을 깊이 탐구해야 합니다.
암호학적 오버헤드
암호학적 도구, 특히 ZK-SNARK 및 MPC와 같은 일반 도구는 오버헤드가 매우 큽니다. 클라이언트가 이더리움 블록을 직접 검증하는 데는 수백 밀리초가 걸리지만, 그러한 블록의 정확성을 증명하기 위해 ZK-SNARK를 생성하는 데는 몇 시간이 걸릴 수 있습니다. 다른 암호학적 도구(예: MPC)의 오버헤드는 더 클 수 있습니다.
AI 계산 자체는 이미 매우 비쌉니다: 가장 강력한 언어 모델은 단어를 출력하는 속도가 인간의 독서 속도보다 약간 빠를 뿐이며, 이러한 모델을 훈련하는 데는 일반적으로 수백만 달러의 계산 비용이 필요합니다. 최고의 모델과 훈련 비용이나 매개변수 수를 절약하려는 모델 간의 품질 차이는 매우 큽니다. 겉보기에는 AI를 암호학으로 포장하여 보증을 추가하는 전체 프로젝트에 대한 의구심을 불러일으키는 좋은 이유입니다.
하지만 다행히도 AI는 매우 특별한 계산 유형으로, 다양한 최적화를 수행할 수 있으며, ZK-EVM과 같은 더 "비구조화된" 계산 유형은 이로부터 혜택을 받을 수 없습니다. AI 모델의 기본 구조를 살펴보겠습니다:
일반적으로 AI 모델은 주로 일련의 행렬 곱셈으로 구성되며, 각 요소에 비선형 연산이 산재해 있습니다(예: ReLU 함수 (y = max(x, 0))). 점근적으로 행렬 곱셈이 대부분의 작업을 차지합니다. 이는 암호학에 매우 유리합니다. 왜냐하면 많은 암호학적 형태가 거의 "무료"로 선형 작업을 수행할 수 있기 때문입니다(적어도 암호화 모델이 아닌 입력에서 행렬 곱셈을 수행할 때).
당신이 암호학자라면, 동형 암호화에서 유사한 현상에 대해 들어본 적이 있을 것입니다: 암호화된 암호문에서 덧셈을 수행하는 것은 매우 쉽지만, 곱셈은 매우 어렵습니다. 2009년까지 우리는 무한 깊이에서 곱셈 작업을 수행하는 방법을 찾지 못했습니다.
ZK-SNARK의 경우, 2013년의 프로토콜과 유사하게, 행렬 곱셈을 증명하는 데 드는 오버헤드는 4배 미만입니다. 불행히도 비선형 층의 오버헤드는 여전히 큽니다. 실제로 가장 좋은 구현은 약 200배의 오버헤드를 보여줍니다.
그러나 추가 연구를 통해 이러한 오버헤드를 크게 줄일 수 있는 희망이 있습니다. Ryan Cao의 발표를 참조할 수 있으며, 그곳에서 GKR 기반의 최신 방법을 소개하고, 제가 GKR의 주요 구성 요소에 대한 간단한 설명을 제공했습니다.
그러나 많은 응용 프로그램의 경우, 우리는 AI 출력 계산이 올바른지 증명할 뿐만 아니라 모델을 숨기고 싶습니다. 이를 위한 몇 가지 간단한 방법이 있습니다: 모델을 분할하여 서로 다른 서버 그룹이 각 층을 중복 저장하도록 하고, 특정 서버에서 특정 층의 유출이 너무 많은 데이터를 유출하지 않도록 할 수 있습니다. 그러나 놀라운 전용 다자 계산도 있습니다.
이 두 경우 모두 이야기의 교훈은 동일합니다: AI 계산의 주요 부분은 행렬 곱셈이며, 행렬 곱셈에 대해 매우 효율적인 ZK-SNARK, MPC(심지어 FHE)를 설계할 수 있으므로 AI를 암호학적 프레임워크에 넣는 총 오버헤드는 예상보다 낮습니다. 일반적으로 비선형 층이 가장 큰 병목 현상이며, 그 크기는 작습니다. 아마도 파라미터 조회(lookup)와 같은 새로운 기술이 도움이 될 수 있습니다.
블랙박스 적대적 기계 학습
이제 또 다른 중요한 문제에 대해 논의해 보겠습니다: 모델의 내용이 비공개로 유지되더라도, "API 접근" 모델을 통해 수행할 수 있는 공격 유형입니다. 2016년 논문을 인용하겠습니다:
많은 기계 학습 모델은 적대적 예제에 취약합니다: 특별히 설계된 입력이 기계 학습 모델의 잘못된 출력을 초래합니다. 한 모델에 영향을 미치는 적대적 예제는 일반적으로 다른 모델에도 영향을 미치며, 두 모델이 서로 다른 구조를 가지고 있거나 서로 다른 훈련 세트에서 훈련되었더라도, 두 모델이 동일한 작업을 수행하도록 훈련되었다면 마찬가지입니다. 따라서 공격자는 자신의 대체 모델을 훈련하고, 대체 모델에 대한 적대적 예제를 제작하여 피해자 모델로 전이할 수 있습니다. 피해자에 대한 정보는 거의 없습니다.
잠재적으로, 공격하려는 모델에 대한 접근이 매우 제한적이거나 전혀 없더라도, 단지 훈련 데이터만으로 공격을 생성할 수 있습니다. 2023년 현재, 이러한 공격은 여전히 중대한 문제입니다.
이러한 블랙박스 공격을 효과적으로 억제하기 위해 우리는 두 가지를 해야 합니다:
모델을 쿼리할 수 있는 사람이나 무엇인지, 쿼리 수를 진정으로 제한합니다. 무제한 API 접근이 가능한 블랙박스는 안전하지 않습니다; 매우 제한된 API 접근이 가능한 블랙박스는 안전할 수 있습니다.
훈련 데이터를 숨기면서 훈련 데이터 생성 과정이 손상되지 않도록 하는 것은 중요한 목표입니다.
전자의 경우, 이 분야에서 가장 많은 작업을 수행한 프로젝트는 아마도 Worldcoin일 것입니다. 저는 여기서 그 초기 버전(및 기타 프로토콜)에 대해 자세히 분석했습니다. Worldcoin은 프로토콜 수준에서 AI 모델을 광범위하게 사용하여 (i) 홍채 스캔을 쉽게 비교할 수 있는 짧은 "홍채 코드"로 변환하고, (ii) 스캔된 객체가 실제로 인간인지 확인합니다.
Worldcoin이 의존하는 주요 방어 수단은 아무도 AI 모델을 간단히 호출할 수 없도록 하는 것입니다: 대신, 그것은 신뢰할 수 있는 하드웨어를 사용하여 해당 모델이 orb 카메라의 디지털 서명된 입력만을 수용하도록 합니다.
이 방법은 효과적이지 않다는 것이 입증되었습니다: 물리적 패치나 얼굴에 착용한 보석 등을 통해 생체 인식 AI에 대한 적대적 공격을 수행할 수 있습니다.
이마에 추가적인 것을 착용하면 감지를 피하거나 다른 사람으로 위장할 수 있습니다. 출처: https://arxiv.org/pdf/2109.09320.pdf
하지만 우리의 희망은 모든 방어 조치를 통합하여 AI 모델 자체를 숨기고, 쿼리 수를 엄격하게 제한하며, 각 쿼리가 어떤 방식으로든 인증되도록 요구하면, 적대적 공격이 매우 어려워져 시스템이 더 안전해질 것이라는 것입니다.
이것은 두 번째 질문을 제기합니다: 우리는 훈련 데이터를 어떻게 숨길 수 있을까요? 이것이 "DAO가 민주적으로 관리하는 AI"가 실제로 의미가 있을 수 있는 곳입니다: 우리는 체인 기반 DAO를 만들어 훈련 데이터를 제출할 수 있는 사람(및 데이터 자체에 대한 요구 사항), 쿼리를 수행할 수 있는 사람 및 쿼리 수를 관리하고, MPC와 같은 암호학적 기술을 사용하여 각 개별 사용자로부터 훈련 입력에서 각 쿼리의 최종 출력까지의 전체 AI 생성 및 실행 프로세스를 암호화할 수 있습니다. 이 DAO는 제출된 데이터에 대해 보상을 제공하는 인기 있는 목표를 동시에 충족할 수 있습니다.
이 계획은 매우 야심 차고, 비현실적일 수 있는 많은 측면이 있음을 다시 강조할 필요가 있습니다:
이러한 완전한 블랙박스 구조에 대해 암호학적 오버헤드가 여전히 너무 높아 전통적인 폐쇄형 "신뢰해 주세요" 방법과 경쟁할 수 없을 수 있습니다.
사실, 훈련 데이터 제출 과정을 탈중앙화하고 중독 공격을 방지할 수 있는 좋은 방법이 없을 수 있습니다.
참여자 간의 공모로 인해 다자 계산 장치가 보안 또는 개인 정보 보호 보장을 손상시킬 수 있습니다: 결국, 이러한 경우는 크로스 체인 브리지에서 반복적으로 발생했습니다.
제가 이 섹션의 시작에서 "AI 판사를 만들지 마세요, 그것은 디스토피아입니다"라고 경고하지 않은 이유 중 하나는, 우리의 사회가 이미 책임을 지지 않는 중앙집중식 AI 판사에 크게 의존하고 있기 때문입니다: 어떤 유형의 알고리즘 게시물과 정치적 견해가 소셜 미디어에서 승격되고 하락하며, 심지어 검열을 받는지를 결정합니다.
저는 현재 단계에서 이러한 추세를 더욱 확대하는 것이 상당히 나쁜 생각이라고 생각하지만, 블록체인 커뮤니티가 AI에 대해 더 많은 실험을 하는 것이 상황을 악화시키는 주요 원인이 될 것이라고 생각하지 않습니다.
실제로 암호 기술은 기존의 중앙집중식 시스템을 개선할 수 있는 매우 기본적이고 낮은 위험의 방법이 있으며, 저는 이에 대해 매우 확신합니다. 그 중 하나는 지연된 검증 AI입니다: 소셜 미디어 웹사이트가 AI 기반 게시물 순위를 사용할 때, 해당 순위를 생성한 모델의 해시 값을 증명하는 ZK-SNARK를 게시할 수 있습니다. 해당 웹사이트는 일정한 지연 후(예: 1년) AI 모델을 공개하겠다고 약속할 수 있습니다.
모델이 공개되면, 사용자는 해시 값을 확인하여 올바른 모델이 게시되었는지 검증할 수 있으며, 커뮤니티는 모델을 테스트하여 공정성을 검증할 수 있습니다. 게시 지연은 모델이 게시될 때 이미 구식이 되도록 보장합니다.
따라서 중앙집중식 세계와 비교할 때, 문제는 우리가 더 잘 할 수 있는지가 아니라, 얼마나 잘 할 수 있는가입니다. 그러나 탈중앙화된 세계에서는 신중하게 행동해야 합니다: 만약 누군가 AI 오라클을 사용하는 예측 시장이나 스테이블 코인을 구축하고, 누군가 그 오라클이 공격 가능하다는 것을 발견한다면, 많은 자금이 순식간에 사라질 수 있습니다.
AI를 게임 목표로서
위에서 언급한 기술이 실제로 작동하여 확장 가능한 탈중앙화 개인 AI(그 내용이 아무에게도 알려지지 않는 블랙박스)를 생성할 수 있다면, 이는 블록체인을 넘어서는 실용성을 가진 AI를 만드는 데에도 사용될 수 있습니다. NEAR 프로토콜 팀은 이를 그들이 진행 중인 작업의 핵심 목표로 삼고 있습니다.
이렇게 하는 이유는 두 가지입니다:
블록체인과 다자 계산의 조합을 사용하여 훈련 및 추론 과정을 실행할 수 있다면, "신뢰할 수 있는 블랙박스 AI"를 생성할 수 있으며, 많은 사용자들이 시스템의 편견이나 사기에 대해 걱정하는 응용 프로그램이 혜택을 받을 수 있습니다. 많은 사람들이 우리가 의존하는 AI에 대한 민주적 거버넌스를 원한다고 표현했습니다; 암호학 및 블록체인 기반 기술이 이 목표를 달성하는 경로가 될 수 있습니다.
AI 안전의 관점에서 볼 때, 이는 자연스러운 긴급 정지 스위치를 갖춘 탈중앙화 AI를 생성하는 기술이 될 것이며, AI를 악의적으로 사용하는 쿼리를 제한할 수 있습니다.
주목할 점은 "더 나은 AI 제작을 장려하기 위해 암호 인센티브를 사용하는 것"이 암호학적으로 완전히 암호화된 토끼 굴에 빠지지 않고도 이루어질 수 있다는 것입니다: BitTensor와 같은 방법이 이 범주에 속합니다.
결론
블록체인과 AI의 지속적인 발전과 함께, 두 분야의 교차 영역에서의 응용 사례도 증가하고 있으며, 그 중 일부는 더 의미 있고 더 강력합니다.
전반적으로, 기본 메커니즘이 설계를 기본적으로 유지하면서 개별 참여자가 AI로 변모하는 응용 사례는 더 미세한 수준에서 효과적으로 작동하는 메커니즘으로, 가장 즉각적인 전망과 가장 쉽게 구현할 수 있는 것입니다.
가장 도전적인 것은 블록체인과 암호학 기술을 사용하여 "단일 인스턴스"(singleton)의 응용 프로그램을 만들려는 시도입니다: 특정 응용 프로그램이 어떤 목적을 위해 의존하는 단일 탈중앙화 신뢰 AI입니다.
이러한 응용 프로그램은 기능성과 AI 안전성을 개선할 수 있는 잠재력을 가지고 있으며, 중앙집중식 위험을 피할 수 있습니다.
그러나 기본 가정은 여러 측면에서 실패할 가능성이 있습니다. 따라서 특히 고가치 및 고위험 환경에서 이러한 응용 프로그램을 배포할 때는 신중하게 행동해야 합니다.
저는 이러한 모든 분야에서 더 많은 건설적인 AI 응용 사례의 시도를 기대하며, 어떤 사용 사례가 규모에서 실제로 실행 가능한지를 확인할 수 있기를 바랍니다.