AIGC 곤경과 Web3 돌파구
작성자:wheart.eth

이미지 출처: 무계한도 AI 도구 생성
최근 1년 동안 AIGC(인공지능 생성 콘텐츠) 기술의 발전과 함께 점점 더 많은 사람들이 그 무서운 점을 느끼고 있습니다. AI는 창작의 문턱을 낮추어 일반인도 자신의 창의력을 발휘하고 전문 수준에 뒤지지 않는 작품을 만들 기회를 제공합니다. 그러나 모든 사람이 AI로 그림을 그리는 과정에서 예술가들은 마치 그와 대립하는 것처럼 보입니다.
Stable Diffusion과 Midjourney를 대표로 하는 업계 거대 기업들은 예술가들의 집단 저항을 자주 받고 있습니다! 그 이유는 두 가지로 요약될 수 있습니다. 첫째, 이러한 모델이 예술가의 작품을 허가 없이 사용하여 훈련하고, 생성된 이미지가 예술가의 스타일과 매우 유사하여 저작권 침해의 소지가 있다는 점입니다. 둘째, 일부 전통 예술가들은 AI가 단순히 이미지를 조합하는 것에 불과하며, 이를 예술로 간주할 수 없다고 생각하고, 그 남용이 예술 시장에 혼란을 초래하여 "나쁜 돈이 좋은 돈을 몰아내는" 현상이 발생한다고 주장합니다.
종합적으로 볼 때, 현재의 AIGC 시장은 폭탄을 품은 거인과 같습니다. 외관상 매우 강력해 보이지만 내부에는 해결되지 않은 치명적인 위협이 존재합니다. 이 위협이 해소되지 않는다면 산업 발전은 결국 제한될 것입니다. 본문에서는 이러한 상황이 발생한 배경과 결과를 자세히 논의하고, 가능한 해결책을 제시하겠습니다.
최근 점점 더 많은 화가들이 Stable Diffusion 등 AIGC 모델이 사용한 데이터 세트에 자신의 작품이 포함되어 있다는 사실을 발견하고 있습니다. 여기에는 수십 년의 탐구를 통해 형성된 독특한 스타일의 작품들이 포함되어 있으며, 이제 사람들은 AI를 이용해 몇 초 만에 동일한 스타일의 콘텐츠를 생성할 수 있습니다. 이는 예술가들에게 명백히 불공평한 일입니다.

(왼쪽:AI 생성 이미지,오른쪽:예술가 원본)
이로 인해 예술가들은 매우 심각한 우려를 표명하고 있습니다. 그들의 예술이 언젠가 그들의 생계를 위협할 수 있는 컴퓨터 프로그램의 훈련에 사용되고 있다는 것입니다. 더욱 긴급한 것은 Stable Diffusion이나 DALL-E와 같은 시스템을 사용하여 이미지를 생성하는 모든 사람이 생성된 이미지에 대한 저작권과 소유권을 가진다는 점입니다(구체적인 조건은 다를 수 있습니다). 한 일러스트레이터는 이에 대해 설명했습니다. 사람들이 AI를 사용하여 책 표지, 기사 삽화 등을 생성하면 그들의 생계에 위협이 될 수 있습니다. 결국 구매자의 관점에서 볼 때, 1000장의 이미지 중에서 무료로 선택할 수 있다면 왜 창작자에게 1000달러를 지불해야 할까요? 게다가 이러한 모든 일이 예술가의 동의 없이 이루어지고 있습니다.
이 문제에 대해 Stability AI의 창립자이자 CEO인 Emad Mostaque는 예술은 Stable Diffusion 뒤의 LAION 훈련 데이터의 일부에 불과하며, 예술 이미지의 비율은 데이터 세트에서 0.1% 미만이라고 밝혔습니다. 또한 사용자가 호출할 때만 생성된다고 덧붙였습니다. 그러나 일부 검색 도구가 수집한 데이터에 따르면, 현재 활동 중인 예술가의 많은 작품이 데이터 세트에 포함되어 있으며, 수천 점의 작품이 있는 경우도 적지 않습니다.
기술이 원죄인가?
이 문제의 발생은 우연이 아니라 필연적이며, AI 발전이 피할 수 없는 문제입니다. 그 이유를 자세히 이해하기 위해 우리는 AIGC 기술의 원리와 발전 경로를 통해 살펴볼 수 있습니다.
AIGC는 인공지능 기술을 활용하여 콘텐츠를 생성하는 것입니다. 2021년 이전에는 AIGC가 주로 텍스트(대필 기사)를 생성했지만, 새로운 세대의 모델은 텍스트, 음성, 이미지, 비디오, 동작 등 다양한 형식의 콘텐츠를 처리할 수 있습니다. AIGC는 전문 생성 콘텐츠(PGC, professional-generated content)와 사용자 생성 콘텐츠(UGC, User-generated content) 이후의 새로운 콘텐츠 창작 방식으로 여겨지며, 창의성, 표현력, 반복성, 전파, 개인화 등에서 기술적 장점을 충분히 발휘할 수 있습니다. 2022년 AIGC는 놀라운 속도로 발전하였으며, 연초에는 기술이 미숙한 단계였으나 몇 개월 후에는 전문 수준에 도달하여 진짜와 구별하기 어려운 수준에 이르렀습니다.
2014년에 제안된 "적대적 생성 네트워크" GAN(Generative Adversarial Network)은 몇 년 전 큰 인기를 끌었던 딥러닝 모델로, AIGC의 실용적인 프레임워크로 간주될 수 있습니다(작년 말에도 여전히 주류 연구 주제였습니다).
GAN의 기본 원리는 매우 간단합니다. 여기서는 이미지를 생성하는 예를 들어 설명하겠습니다. G(Generator)와 D(Discriminator)라는 두 개의 네트워크가 있다고 가정해 보겠습니다. 이름에서 알 수 있듯이 G는 이미지를 생성하는 네트워크로, 무작위 노이즈 z를 받아 이를 통해 이미지를 생성합니다. D는 이미지가 "진짜"인지 판단하는 판별 네트워크입니다. D의 입력 매개변수는 x로, x는 하나의 이미지를 나타내며, 출력 D(x)는 x가 실제 이미지일 확률을 나타냅니다. 만약 1이라면 100% 실제 이미지라는 뜻이고, 0이라면 실제 이미지일 가능성이 없다는 뜻입니다. 훈련 과정에서 생성 네트워크 G의 목표는 가능한 한 진짜 이미지를 생성하여 판별 네트워크 D를 속이는 것입니다. D의 목표는 G가 생성한 이미지와 실제 이미지를 최대한 구별하는 것입니다. 이렇게 G와 D는 동적인 "게임 과정"을 형성합니다. 마지막으로 게임의 결과는 무엇일까요? 가장 이상적인 상태에서 G는 "진짜와 구별할 수 없는" 이미지를 생성할 수 있습니다. D에게는 G가 생성한 이미지가 실제인지 아닌지를 판단하기 어려워지므로 D(G(z)) = 0.5가 됩니다.
이렇게 우리의 목표는 달성되었습니다: 우리는 이미지를 생성하는 생성 모델 G를 얻었습니다.
하지만 GAN에는 세 가지 단점이 있습니다. 첫째, 출력 결과에 대한 제어력이 약해 무작위 이미지를 생성하기 쉽습니다. 둘째, 생성된 이미지의 해상도가 낮습니다. 셋째, GAN은 판별기를 사용하여 생성된 이미지가 다른 이미지와 동일한 범주에 속하는지를 판단해야 하므로, 생성된 이미지는 기존 작품의 모방일 뿐 혁신적이지 않습니다. 따라서 GAN 모델에 의존하여 새로운 이미지를 창작하기 어렵고, 텍스트 프롬프트를 통해 새로운 이미지를 생성할 수 없습니다.

GAN 기술 원리
2021년 OpenAI 팀은 교차 모드 딥러닝 모델 CLIP(Contrastive Language-Image Pre-Training)을 오픈 소스로 공개했습니다. CLIP 모델은 텍스트와 이미지를 연결할 수 있으며, 먼저 4억 개의 정제되지 않은 이미지와 텍스트 쌍 데이터 세트를 수집하여 사전 훈련을 통해 작업을 수행합니다. 대조 학습 목표를 사용하여 훈련하며, 이미지와 텍스트를 각각 인코딩(텍스트는 전체 문장)한 후, 두 쌍의 코사인 유사도를 계산하고, 각 이미지의 한 줄 또는 텍스트의 한 열에 대해 분류하여 일치하는 긍정 사례를 찾습니다. 각 이미지는 32,768개의 텍스트 후보를 가지며, 이는 SimCLR의 두 배입니다. 부정 사례의 수가 증가하는 것도 효과가 좋은 이유 중 하나입니다. 예측 시에는 간단하게 이미지 분류 데이터 세트를 찾아 레이블을 자연어로 변환합니다. 예를 들어 "개"는 "개의 사진"으로 변환할 수 있습니다. 그런 다음 사전 훈련된 인코더를 사용하여 레이블과 이미지를 인코딩하고 유사도를 계산합니다.
알고리즘의 전체 과정은 다음과 같이 요약할 수 있습니다: 입력 이미지를 받아 32,768개의 무작위 샘플 텍스트 조각 중 어떤 것이 실제로 데이터 세트와 쌍을 이루는지를 예측합니다. 텍스트 설명은 구체적인 범주가 아니기 때문에 다양한 이미지 분류 작업에서 제로샷(zero-shot)으로 수행할 수 있습니다. 제로샷은 전이 학습의 일종으로, 얼룩말을 설명할 때 "말의 윤곽 + 호랑이의 털 + 판다의 흑백"을 사용할 수 있어 새로운 범주를 생성할 수 있습니다. 일반적인 감독 분류기는 말, 호랑이, 판다의 이미지를 올바르게 분류할 수 있지만, 학습하지 않은 얼룩말 사진을 만나면 분류할 수 없습니다. 그러나 얼룩말은 이미 분류된 이미지와 공통점을 가지고 있어 이 새로운 범주를 추론할 수 있습니다.
따라서 아이디어는 더 세분화된 속성을 설정하여 테스트 세트와 훈련 세트 간의 연결을 구축하는 것입니다. 예를 들어 말의 특성 벡터를 의미 공간으로 변환하고, 각 차원은 범주 설명을 나타냅니다. 【꼬리가 있음 1, 말의 윤곽 1, 줄무늬 0, 흑백 0】, 판다는 【꼬리가 없음 0, 말의 윤곽 0, 줄무늬 1, 흑백 1】로 정의하여 얼룩말의 벡터를 생성합니다. 입력 이미지의 벡터와 얼룩말 벡터 간의 유사도를 비교하여 판별할 수 있습니다.
따라서 CLIP 모델은 두 가지 장점을 가지고 있습니다. 첫째, 자연어 이해와 컴퓨터 비전 분석을 동시에 수행하여 이미지와 텍스트의 일치를 실현합니다. 둘째, 충분히 많은 레이블이 붙은 "텍스트-이미지"를 훈련하기 위해 CLIP 모델은 인터넷의 이미지를 광범위하게 활용합니다. 이러한 이미지는 일반적으로 다양한 텍스트 설명이 포함되어 있어 CLIP의 자연스러운 훈련 샘플이 됩니다. 통계에 따르면 CLIP 모델은 인터넷에서 40억 개 이상의 "텍스트-이미지" 훈련 데이터를 수집하였으며, 이는 후속 AIGC 특히 입력 텍스트로 이미지를/비디오를 생성하는 응용 프로그램의 실현을 위한 기초를 마련했습니다.

CLIP 기술 원리도
그 후 등장한 Diffusion 확산 모델은 텍스트가 이미지를 생성하는 AIGC 응용 프로그램을 대중에게 알리게 되었으며, 2022년 하반기 Stable Diffusion 응용의 중요한 기술 핵심이 되었습니다.
확산 모델의 영감은 비평형 열역학에서 비롯되었습니다. 확산 단계의 마르코프 체인을 정의하고(현재 상태는 이전 상태와만 관련이 있음), 실제 데이터에 점진적으로 무작위 노이즈를 추가합니다(전방 과정), 그런 다음 역확산 과정을 학습하여(역확산 과정) 노이즈에서 필요한 데이터 샘플을 구축합니다.

Diffusion Models 기술 원리도
전방 과정은 지속적으로 노이즈를 추가하는 과정이며, 추가되는 노이즈는 시간 단계가 증가함에 따라 증가합니다. 마르코프 정리에 따르면, 노이즈가 추가된 이 시점은 이전 시점과의 관련성이 가장 높으며, 추가할 노이즈와 관련이 있습니다(이전 시점의 영향이 큰지, 추가할 노이즈의 영향이 큰지에 따라 현재 전방 시점이 뒤로 갈수록 노이즈의 영향력이 커집니다. 처음에는 조금의 노이즈만 추가해도 효과가 있지만, 이후에는 점점 더 많은 노이즈를 추가해야 합니다).
역방향 과정은 무작위 노이즈에서 시작하여 점진적으로 노이즈가 없는 원본 이미지로 복원하는 과정입니다. 여기서 우리는 전체 데이터 세트를 알아야 하므로, 이러한 조건부 확률을 근사하기 위해 신경망 모델(현재 주류는 U-net + attention 구조)을 학습해야 하며, 이를 통해 역확산 과정을 실행합니다.

Diffusion Models 역방향 과정
Diffusion 모델에는 두 가지 특징이 있습니다. 첫째, 이미지를 고유한 가우시안 노이즈를 추가하여 훈련 데이터를 파괴하고, 그런 다음 원본 이미지를 복원하기 위해 이 노이즈 과정을 역전시키는 방법을 찾습니다. 훈련을 거친 후, 이 모델은 무작위 입력에서 새로운 데이터를 합성할 수 있습니다. 둘째, Stable Diffusion은 모델의 계산 공간을 픽셀 공간에서 수학적 변환을 통해 가능성 공간의 저차원 공간으로 축소하여 계산량과 계산 시간을 크게 줄여 모델 훈련 효율성을 크게 향상시킵니다. 이 알고리즘 패턴의 혁신은 AIGC 기술의 획기적인 발전을 직접적으로 촉진했습니다.

AIGC 관련 딥러닝 모델 요약
취약점!
위의 알고리즘 개요를 통해 AIGC는 본질적으로 기계 학습이라는 것을 이해할 수 있습니다. 이미 이렇게 되면 대량의 데이터 세트를 사용하여 훈련을 수행하는 것은 피할 수 없으며, 이 과정에서 이미지 저작권자의 이익이 손상되는 경우가 있습니다.
우리는 이러한 상황의 존재를 알고 있지만, 여전히 해결하기 어렵습니다.
예술가들에게는 이러한 플랫폼이 자신의 권리를 침해한다고 생각하지만, 현재 이러한 침해 행위를 규명할 수 있는 완전한 법적 규정이 없으며, 심지어 일부 법 조항에서는 이러한 행위가 합법적입니다.
한편으로는 AIGC를 "저자"라고 부르기 어렵습니다. 저작권법은 일반적으로 저자는 자연인, 법인 또는 비법인 단체만 가능하다고 규정하고 있으며, 분명히 AIGC는 법적으로 인정받는 권리 주체가 아니므로 저작권의 주체가 될 수 없습니다. 그러나 AIGC 응용은 생성된 이미지의 저작권 문제에 대해 서로 다른 견해를 가지고 있으며, 이미지는 플랫폼에 속하거나 완전히 오픈 소스이거나 생성자에게 속하는지에 대한 통일된 의견이 형성되지 않았습니다.
다른 한편으로는 AIGC가 생성한 "작품"에 대한 논란이 여전히 존재합니다. 전통적인 의미의 작품은 문학, 예술 및 과학 분야에서 독창성을 가지고 특정 형태로 복제할 수 있는 지적 결과물을 의미합니다. AIGC의 작품은 높은 무작위성과 알고리즘 주도성을 가지고 있어 AIGC 작품의 저작권 침해 가능성을 정확하게 증명하기 어렵습니다. 또한 AIGC가 독창성을 가지고 있는지 여부는 현재로서는 일괄적으로 판단하기 어렵고, 개별 사례에 따라 차이가 큽니다.
현재 자신의 작품을 데이터 세트에서 삭제하더라도 자신의 스타일의 작품 생성은 막을 수 없습니다. 첫째, AI 모델은 이미 훈련을 받았고, 해당 스타일을 이미 습득했습니다. 또한 OpenAI의 CLIP 모델(Stable Diffusion 훈련에 사용되어 텍스트와 이미지 간의 관계를 이해하는 데 사용됨) 덕분에 사용자는 여전히 특정 예술 스타일을 호출할 수 있습니다.
AI 프로젝트 측에서는 데이터 세트의 각 이미지에 대해 허가를 받는 것이 비현실적입니다. 이러한 법안이 통과된다면 AI 산업의 발전은 큰 제약을 받을 것이며, 아마도 재앙이 될 것입니다. 따라서 우리는 절충안을 필요로 합니다.
해결책?
먼저 AIGC의 창작 순환 과정을 분석해 보겠습니다:
창의적 구상 측면에서 AIGC는 새로운 창의적 완성 경로를 구축하였습니다. 전통적인 창작 과정에서 소화, 이해 및 반복 작업은 AIGC가 수행할 수 있을 것으로 기대되며, 최종 창의적 과정은 "창의성-AI-창작"의 형태로 변화할 것입니다.
창의적 실현 측면에서 창작자와 AIGC의 관계는 사진작가와 카메라의 관계와 유사합니다. 사진작가는 촬영 아이디어를 구성하고 계획하며 카메라의 매개변수를 설정하지만 카메라의 작동 원리를 이해할 필요는 없습니다. 한 번의 클릭으로 고품질 콘텐츠를 생성할 수 있습니다. 마찬가지로 창작자는 구상하고 계획하며 AI 모델의 매개변수를 설정하지만 모델의 원리를 이해할 필요 없이 직접 클릭하여 콘텐츠를 출력할 수 있습니다. 창의성과 실현은 분리된 상태로 나타나며, 실현 과정은 반복 가능한 노동으로 변화하여 AIGC가 수행할 수 있으며, 점차 비용을 0에 가깝게 줄일 수 있습니다.
따라서 여기에는 두 개의 주요 주체가 있습니다: 창작자와 AIGC. 창의성이 중요하고 창작도 마찬가지로 중요합니다. AI가 생성한 이미지는 창작자의 "창의적 저작권"이며, AIGC 또는 예술가 스타일을 채택한 "기초 창의성/창작 저작권"입니다. 두 가지 모두 생성된 콘텐츠에 대한 권리를 가져야 하며, 현재 상황은 예술가의 수익이 부족하다는 것입니다.
사실 예술가들은 AI가 자신의 작품을 학습하는 것을 막고 싶어하는 것이 아니라, 그 과정에서 적절한 수익을 얻고 싶어합니다. 따라서 이 디자인이 예술가의 승인을 받기만 하면 AIGC의 취약점이 보완될 수 있습니다.
창작자의 결과물은 AIGC가 학습하는 대상이지만, 창작자의 창의성이 핵심입니다. 창의성 자체가 AIGC가 생성한 그림보다 더 가치가 있기 때문에, 창작자의 "창의성"을 어떻게 정량화하고 가격을 매길 것인가는 AIGC의 비즈니스 모델을 구축하는 데 도움이 될 것입니다. 이 과정에서 "주의 메커니즘"이 AIGC의 잠재적 정량화 매개체가 될 것입니다. 예를 들어, 특정 기관의 전문가들은 입력 텍스트에서 키워드가 영향을 미치는 그림의 면적과 강도를 계산하여 각 키워드의 기여도를 정량화할 수 있다고 제안했습니다. 이후 생성 비용과 예술가 기여 비율에 따라 창작자가 생성한 가치를 얻을 수 있습니다. 마지막으로 플랫폼과 비율에 따라 수익을 나누면, 창작자는 기여한 창의성에 따라 이론적으로 수익을 얻을 수 있습니다.
예를 들어, 특정 AIGC 플랫폼에서 일주일 동안 수십만 개의 작품이 생성되었고, 이 창작자와 관련된 키워드의 작품이 30,000개가 있다면, 평균 각 작품의 기여도는 0.3, 각 AIGC 그림의 비용은 0.5위안, 플랫폼 분배 비율은 30%라면, 이 창작자는 해당 플랫폼에서 이번 주에 30000*0.3*0.5*(1-30%)=3150위안의 수익을 얻을 수 있습니다. 향후 AI 데이터 세트 구축에 참여하면 예술가의 추가 수익이 될 수 있습니다.
하지만 위의 설계에도 결함이 있습니다. AI는 완벽하지 않으며 모든 이미지가 가치가 있는 것은 아니므로, 여기서 최적화된 방안은 생성 시 예술가에게 비용을 지불하지 않고, 만족스러운 콘텐츠를 다운로드하고자 할 때만 해당 비용을 지불하는 것입니다. 이는 전통적인 예술 창작 분야의 프로세스와 유사합니다. 갑이 주문하고, 을이 만족스러운 작품을 제공할 때 갑이 모든 비용을 지불하는 방식입니다.
프로세스를 더욱 규범화하고 완벽하게 만들기 위해서는 먼저 전 세계 예술가들에게 스타일 라이브러리를 공개하고, 각 예술가가 자신의 작품을 훈련 세트에 포함할지 여부를 선택할 수 있도록 해야 합니다. 만약 포함된다면 다른 사용자가 해당 스타일로 창작할 때 적절한 수익을 얻을 수 있습니다. 이는 또한 예술가에게 새로운 수익 경로를 모색하는 데 도움이 됩니다. 시장에서 "침해" 행위가 이토록 많은 상황에서, 이 "정품 라이센스" 라이브러리는 예술가 집단의 지지를 받을 것입니다. 이러한 모델은 긍정적인 순환과 더 건강한 모델에 더 가깝습니다.
Web3?
Web3는 항상 "창작자 경제"를 강조해 왔으며, 이는 AIGC가 해결하고자 하는 문제와 일치합니다. 블록체인 기술을 활용하여 AIGC를 중심으로 한 생태 네트워크를 구축할 수 있습니다.
창작자는 AICG의 힘을 통해 Web3 모델의 경제 모델을 결합하여 자신의 창의성과 영향력을 기하급수적으로 확대할 수 있습니다. 또한 더 많은 사람들이 소비자에서 참여자로, 사용자에서 소유자로의 전환을 실현할 수 있습니다. 동시에 예술가는 자신이 얻은 수익의 몫을 받을 수 있어 윈-윈 상황을 달성할 수 있습니다.
사실 Web3+AI는 새로운 것이 아닙니다. 생성적 예술 NFT의 선두주자인 Art Blocks는 성공적인 응용 사례입니다.(알고리즘은 다르지만 여전히 유사한 점이 있습니다.)
Art Blocks는 무작위 예술품을 생성하는 플랫폼입니다. 2020년 Erick Snowfro에 의해 출시된 이 플랫폼은 프로그래머블하고 생성적인 콘텐츠에 중점을 두고 있으며, 생성된 콘텐츠는 이더리움 블록체인에서 변경할 수 없습니다. 그렇다면 "무작위 예술품"은 어떻게 무작위로 생성될까요? 이 무작위 과정은 일련의 숫자에 의해 제어되며, 이 숫자는 이더리움 체인에 있는 비대체 토큰(NFT)에 저장됩니다. 이후 이 토큰이 저장한 숫자 문자열이 구매한 예술품의 일련의 속성을 제어하여 궁극적으로 당신만의 독특한 예술품을 생성합니다.
당신이 구매자라면, 특정 예술가의 스타일이 마음에 든다면, 결제를 한 후 주조를 시작하면 알고리즘이 무작위로 동일한 스타일의 예술품을 당신의 계정으로 전송합니다. 이 작품은 정적 이미지, 3D 모델 또는 인터랙티브한 예술품일 수 있습니다. 각 출력은 다르며, 플랫폼에서 생성된 콘텐츠 유형은 무한한 가능성을 가지고 있지만, 각 프로젝트에서 주조할 수 있는 예술품의 수는 한정되어 있습니다. 즉, 주조가 완료되면 해당 프로젝트에서는 더 이상 새로운 작품이 생성되지 않습니다.
창작자에게는 Art Blocks에서 자신의 생성 예술 스크립트를 미리 조정하고 배포해야 하며, 그 출력 결과가 입력 해시 값과 관련이 있도록 해야 합니다. 이 스크립트는 Art Blocks를 통해 이더리움 체인에 저장됩니다.
수집가에게는 특정 시리즈의 작품을 주조할 때(구매 버튼을 클릭할 때) 본질적으로 무작위 해시 값을 얻고, 그 후 스크립트가 실행되어 해당 해시 값에 해당하는 생성 예술 작품이 즉시 창작됩니다.
이러한 방식은 수집가도 생성 예술의 창작에 참여하게 합니다.
이 작품의 내용은 원래 예술가의 스타일, 생성 알고리즘 및 당신의 주조 시점 세 가지에 의해 결정됩니다. 도구, 창작자 및 구매자가 함께 이 작품을 완성하며, 이러한 새로운 NFT 창작 방식은 이 예술품에 더 많은 기념 가치를 부여하고 최신 기술의 흔적을 남깁니다.
주류 NFT 아바타 프로젝트를 구매하는 것과는 달리, Art Blocks에서 NFT를 구매하는 것은 예술가를 직접 지원하는 것과 유사합니다. 이러한 예술가들은 종종 실명으로 활동하며, 많은 역사적 작품을 보유하고 있으며, Art Blocks는 그들의 작품에 대한 심층 인터뷰를 진행합니다. Art Blocks에서 처음 판매되는 NFT의 경우, 예술가는 90%의 수익을 얻고 나머지 10%는 Art Blocks에 분배됩니다.
따라서 우리는 Art Blocks가 AIGC에 "넓은 길"을 열어주었다고 볼 수 있습니다. 물론 이 길은 단순히 복사할 수 있는 것은 아니지만, 세부 사항에서 수정하여 AIGC+Web3의 비즈니스 순환이 될 수 있습니다! 현재도 유사한 일을 하는 프로젝트가 있습니다.
많은 선구자들이 길을 닦았기 때문에 우리는 AIGC가 점점 더 멀리 나아갈 것이라고 믿을 이유가 있으며, 현재의 결함도 서서히 보완될 것입니다.










