9000억 달러의 가치를 지닌 Anthropic, 창립자는 어떻게 성장했는가?
Anthropic의 최신 자금 조달 라운드가 논의 중이며, 평가액 소문은 9천억 달러에 가까워졌습니다------OpenAI를 초과했습니다.
2차 시장에서 Anthropic의 주식의 암묵적 평가액은 1조 달러에 근접했으며, 일부 토큰화 플랫폼의 제안은 그보다 더 높습니다.
9개월 전, 이 숫자는 610억 달러였습니다.
거의 같은 시기에, 회사의 창립자이자 CEO인 다리오 아모디(Dario Amodei)는 5월 6일 Code with Claude 개발자 회의에서 2026년 1분기 회사의 수익이 전년 대비 80배 증가했다고 말했습니다.
"우리는 원래 10배로 계획했었습니다." 그가 말했습니다, "결과는 80배였습니다."
주: Anthropic은 공개된 분기 재무 보고서가 없으며, 외부에 공개된 것은 거의 전부 ARR(연간 반복 수익)------즉, 당월 수익을 12배하여 연간 규모를 추정한 것입니다. 이는 실제 분기 수익이 아니라 "현재 속도로 1년 동안 얼마나 갈 수 있는지"에 대한 동적 수치입니다.
이 회사는 ChatGPT와 같은 슈퍼 애플리케이션의 진입점이 없습니다. 그들의 수익의 대부분은 API에서 발생합니다------다른 회사들이 그들의 모델을 구매하여 자사 제품에 통합합니다. 그들의 곡선은 이 AI 물결이 실제로 수익을 창출할 수 있는지를 가장 직접적으로 시험하는 시험대입니다.
아모디 자신은 이로 인해 피할 수 없는 연구 대상이 되었습니다.
《다리오 아모디는 어떻게 만들어졌는가 》라는 이 인물 특집은 Big Technology의 창립자 알렉스 칸트로위츠(Alex Kantrowitz)가 썼으며, 2025년 7월 말에 발표되었습니다. 20명 이상의 인터뷰 대상자와의 대면 인터뷰는 지금까지 논란이 많은 아모디 본인을 가장 완벽하게 묘사한 것입니다.
이 기사는 그가 샌프란시스코에서 자란 어린 시절부터 시작하여 프린스턴의 망막 실험실, 바이두의 컴퓨팅 실험, OpenAI 내부의 "팬더 팀"을 거쳐 Anthropic의 탄생, Claude의 폭발, 그리고 그가 실리콘밸리의 다른 플레이어들과 벌이고 있는 다선 전쟁에 이르기까지 다룹니다.
하지만 전체 기사에서 가장 중요한 부분은 아모디가 20대 초반에 겪은 일입니다.
그의 아버지는 희귀병으로 사망했습니다. 4년 후, 이 병의 사망률은 50%에서 5% 이하로 떨어졌습니다.
"누군가 이 병의 치료법을 발견하여 몇몇 사람의 생명을 구했습니다," 아모디가 말했습니다, "하지만 본래 더 많은 사람을 구할 수 있었습니다."
이것이 그가 오늘 하는 모든 일의 출발점입니다.
똑똑한 투자자(ID: Capital-nature)가 정리하여 추천합니다. 다음은 본문입니다.
제가 다리오 아모디에게 최근 어떻게 지내는지 물었을 때, 그는 거의 주저하지 않았습니다.
이 Anthropic CEO는 2025년 내내 전투 상태에 있었습니다: 그는 업계 동료들과 대결하고, 정부 관계자들과 논쟁하며, 대중의 인공지능에 대한 인식을 끊임없이 도전했습니다.
지난 몇 달 동안 그는 AI가 곧 50%의 초급 화이트칼라 직업을 없앨 수 있다고 예측했습니다; 그는 뉴욕 타임즈에 글을 기고하며 10년간의 AI 규제 중단에 강력히 반대했습니다; 그는 또한 중국에 반도체 수출 규제를 촉구했으며, 이로 인해 엔비디아 CEO인 황仁勋의 공개 반박을 받았습니다.
이 모든 일이 벌어지는 동안, 아모디는 Anthropic의 샌프란시스코 중심 본사 1층에서 저와 만났습니다.
그는 매우 편안하고 에너지가 넘치며, 마치 이 기회를 기다려온 듯, 자신이 왜 이렇게 행동하는지를 설명하고 싶어했습니다.
그는 파란색 청바지 스웨터를 입고, 안에는 캐주얼한 흰색 티셔츠를 입고, 두꺼운 테의 사각 안경을 쓰고, 앉자마자 정면을 응시했습니다.
아모디는 그의 행동을 지탱하는 것은 확고한 신념이라고 말했습니다: AI의 발전 속도가 대부분 사람들이 인식하는 것보다 더 빠르며, 이는 그로 인해 가져오는 기회와 결과도 표면적으로 보이는 것보다 더 가깝다는 것입니다.
"저는 AI 능력이 빠르게 향상될 것이라고 가장 긍정적으로 보는 사람 중 하나입니다." 그가 저에게 말했습니다, "더 강력한 AI 시스템에 점점 가까워질수록, 저는 이 말을 더 강력하고 공개적으로 말하고, 이 관점을 더 명확히 전달하고 싶습니다."
아모디의 직설적이고 날카로운 발언은 실리콘밸리에서 그에게 존경을 받게 했지만, 동시에 조롱도 불러왔습니다.
어떤 이들에게 그는 기술적 통찰력을 가진 사람으로, OpenAI의 GPT-3 프로젝트를 주도했던 인물로 여겨집니다; 그는 또한 안전을 중시하는 리더로, 이후 OpenAI를 떠나 Anthropic을 설립했습니다.
하지만 다른 이들에게 그는 통제 욕구가 강한 "종말론자"로 여겨집니다: AI의 발전을 늦추고, 자신의 의도대로 그것을 형성하며, 경쟁자를 차단하려는 사람입니다.
그를 좋아하든 싫어하든, AI 분야는 그를 피할 수 없습니다.
아모디는 Anthropic을 진정한 경제력으로 변화시켰습니다.
이 회사의 현재 가치는 610억 달러에 달합니다. 2021년의 제로 지점에서 출발하여, 아직 수익을 내지 못하고 있지만, 연간 반복 수익은 2025년 3월의 14억 달러에서 5월의 30억 달러, 7월에는 거의 45억 달러로 증가했습니다.
아모디는 이를 "현재 규모에서 역사상 가장 빠르게 성장하는 소프트웨어 회사"라고 부릅니다.
어쩌면 Anthropic의 수익 규모보다 더 주목할 만한 것은 이러한 수익의 출처입니다.
ChatGPT와 같은 애플리케이션에 주로 의존하는 OpenAI와는 달리, 아모디가 가장 크게 베팅한 것은 기본 기술 자체입니다. 그는 Anthropic의 대부분의 수익이 API에서 발생하며, 다른 회사들이 Anthropic의 AI 모델을 구매하여 자사 제품에 통합한다고 말했습니다.
따라서 Anthropic은 어떤 의미에서 AI 발전의 일종의 기상계가 될 것입니다: 그들의 상승과 하강은 이 기술 자체의 강도에 직접적으로 의존할 것입니다.
Anthropic이 계속 성장함에 따라, 아모디는 회사의 영향력이 그가 전체 산업의 방향에 영향을 미치는 데 도움이 되기를 바랍니다. 그가 목소리를 내고, 주먹을 쥐고, 반격을 감수할 의향이 있다는 점을 고려할 때, 그는 아마도 맞는 말을 하고 있습니다.
따라서 이 사람이 세계에서 가장 영향력 있는 신기술을 형성하는 데 참여한다면, 그를 움직이는 동기, 그의 회사가 어떻게 운영되는지, 그리고 왜 그의 일정이 많은 사람들보다 더 짧은지를 이해하는 것이 매우 중요합니다.
그와 그의 친구들, 동료들, 경쟁자들과 20회 이상의 인터뷰를 한 후, 저는 답을 찾았다고 믿습니다.
치료할 수 있었던 질병
다리오 아모디는 어릴 적부터 과학 소년이었습니다.
그는 1983년 샌프란시스코에서 태어났으며, 어머니는 유대인, 아버지는 이탈리아인입니다. 그의 관심사는 거의 전부 수학과 물리학에 집중되어 있었습니다. 고등학교 시절, 인터넷 거품이 그의 주변에서 터졌지만, 그는 거의 영향을 받지 않았습니다.
"무언가 웹사이트를 만드는 것은 저에게 전혀 매력적이지 않았습니다." 그가 저에게 말했습니다, "제가 관심 있는 것은 기초 과학의 진리를 발견하는 것이었습니다."
집에서 아모디는 부모님과 매우 친밀한 관계를 유지했습니다. 그는 부모님이 사랑이 넘치는 부부이며, 이 세상을 더 나은 곳으로 만들고 싶어한다고 말했습니다.
그의 어머니 엘레나 엥겔(Elena Engel)은 버클리와 샌프란시스코 도서관의 리노베이션 및 건설 프로젝트를 담당했습니다. 아버지 리카르도 아모디(Riccardo Amodei)는 훈련받은 가죽 세공사입니다.
"그들은 저에게 무엇이 옳고 무엇이 그른지를 이해하게 해주었고, 이 세상에서 진정으로 중요한 것이 무엇인지 알게 해주었습니다." 그가 말했습니다, 그들은 그에게 강한 책임감을 주었습니다.
이 책임감은 아모디가 캘리포니아 공과대학교에서 학부 과정을 공부할 때 이미 드러났습니다. 당시 그는 주변 동료들이 다가오는 이라크 전쟁에 대해 지나치게 부정적으로 반응하는 것을 강하게 비판했습니다.
"문제는 모든 사람이 이라크 폭격에 대해 만족하는 것이 아닙니다; 문제는 대다수가 원칙적으로 반대하지만, 단 1초라도 시간을 내고 싶어하지 않는다는 것입니다."
아모디는 2003년 3월 3일 학생 신문인 《캘리포니아 공과대학 보》에 기고한 글에서 "이 상황은 반드시 변화해야 하며, 즉시 변화해야 하며, 지체할 수 없습니다."라고 썼습니다.
이후, 그의 20대 초반에 아모디의 인생은 완전히 바뀌었습니다.
그의 아버지 리카르도는 오랜 시간 동안 희귀병과 싸우다가 2006년에 세상을 떠났습니다. 아버지의 죽음은 아모디에게 큰 충격을 주었습니다. 그는 이로 인해 프린스턴 대학교에서의 연구 방향을 이론 물리학에서 생물학으로 전환하여 인류의 질병과 생물학적 문제를 해결하고자 했습니다.
어떤 의미에서 아모디의 이후 인생은 아버지의 죽음과 관련이 있습니다.
특히 그가 잊지 못하는 것은, 아버지가 세상을 떠난 지 4년도 채 되지 않아, 새로운 돌파구가 나타나 이 질병의 사망률이 50%에서 95%로 낮아졌다는 것입니다.
"누군가 이 병의 치료법을 연구하여 성공적으로 치료하고, 많은 사람의 생명을 구했습니다." 아모디가 말했습니다, "하지만 본래 더 많은 사람을 구할 수 있었습니다."
2010년대 초 아모디와 교류했던 제이드 왕(Jade Wang)은 아모디의 아버지의 죽음이 그의 인생 경로를 계속 형성하고 있다고 말했습니다.
"이것이 그의 아버지가 죽었을 가능성과 살아남았을 가능성 사이의 차이입니다, 이해하나요?" 그녀가 말했습니다. 그녀의 말은 과학이 조금만 더 빨리 발전했다면 아모디의 아버지가 오늘날에도 여전히 살아있을 수 있었을 것이라는 것입니다.
아모디는 AI를 이러한 소망을 실현할 도구로 찾는 데 시간이 걸렸습니다.
아버지의 죽음을 언급할 때, 아모디의 감정은 분명히 고조되었습니다.
그는 자신이 수출 규제와 AI 안전 보호를 촉구하는 것이 종종 비이성적이고 AI 발전을 방해하려는 행동으로 잘못 해석된다고 생각합니다.
"누군가 '이 사람은 종말론자이며, 그는 일을 느리게 하려 한다'고 말할 때, 저는 정말로 매우 화가 납니다." 아모디가 저에게 말했습니다, "당신은 제가 방금 뭐라고 했는지 들었습니다. 제 아버지는 죽었습니다, 그 치료법이 몇 년 일찍 나왔다면 그는 아마 죽지 않았을 것입니다. 저는 이 기술의 이점을 당연히 이해합니다."
AI가 해결책이 될 때
프린스턴에서 아모디는 여전히 아버지의 죽음의 영향을 받고 있었습니다. 그는 망막 연구를 통해 인간 생물학을 이해하는 길에 들어섰습니다.
우리의 눈은 시각 피질에 신호를 보내어 세상을 포착합니다. 시각 피질은 뇌의 상당 부분을 차지하며, 대뇌 피질의 약 30%를 차지하고, 이 데이터를 처리하여 결국 우리가 이미지를 볼 수 있도록 합니다.
누군가 인간 생리 시스템의 복잡성에 들어가고 싶다면, 망막은 훌륭한 출발점입니다.
"그는 망막을 사용하여 전체 신경 집단을 관찰하고, 각 세포가 무엇을 하고 있는지를 진정으로 이해하거나, 적어도 그런 가능성을 얻었습니다." 아모디의 프린스턴 동료인 스테파니 팔머(Stephanie Palmer)가 저에게 말했습니다, "그의 초점은 여기에서 더 많았고, 눈 자체가 아니었습니다. 그는 안과 의사가 되고 싶어하지 않았습니다."
마이클 베리(Michael Berry) 교수의 망막 실험실에서 일할 때, 아모디는 당시 망막 신호를 측정하는 방법에 매우 불만족스러워하여, 더 많은 데이터를 얻기 위해 새로운 더 나은 센서를 공동 발명했습니다.
이것은 실험실에서 흔치 않은 일입니다. 그것은 인상적일 뿐만 아니라 규칙을 따르지 않으려는 기질을 가지고 있습니다.
그의 박사 논문은 헤르츠 논문상을 수상했으며, 이는 학술 연구에서 현실적 응용 가치를 발견한 사람에게 수여되는 권위 있는 상입니다.
하지만 아모디는 기존 규범에 도전하는 것을 좋아하며, "사람들이 어떻게 해야 하는지"에 대한 강한 판단을 가지고 있어 학술 환경에서 특히 다르게 보였습니다.
베리는 아모디가 그가 본 가장 재능 있는 대학원생이라고 말했습니다. 그러나 아모디의 기술 발전과 팀워크에 대한 중시는 개인 성과를 중심으로 평가되는 시스템에서는 잘 맞지 않았습니다.
"저는 그가 내면적으로 약간 자부심이 있는 사람이라고 생각합니다." 베리가 저에게 말했습니다, "그 전까지 그의 학술 경력에서 그가 무언가를 성취할 때마다 사람들은 일어나서 박수를 쳤습니다. 하지만 여기서는 그런 일이 실제로 발생하지 않았습니다."
프린스턴을 떠난 후, AI의 문이 아모디에게 열렸습니다.
그는 스탠포드 대학교 연구원인 파라그 말릭(Parag Mallick) 아래에서 박사 후 연구를 시작하여 종양 내부 및 주변의 단백질을 연구하여 전이성 암세포를 감지했습니다.
이 작업은 매우 복잡했으며, 아모디는 개인의 능력의 한계를 보았습니다. 그는 기술적 해결책을 찾기 시작했습니다.
"생물학의 기본 문제의 복잡성은 인간의 범위를 초과한 느낌을 줍니다." 아모디가 저에게 말했습니다, "이 모든 것을 진정으로 이해하려면 수백 명의 연구자가 필요합니다."
아모디는 신흥 AI 기술에서 이러한 잠재력을 보았습니다.
당시 데이터와 컴퓨팅 능력의 폭발적인 성장은 기계 학습의 돌파구를 이끌고 있었습니다. 기계 학습은 AI의 한 분파로, 오랫동안 이론적으로 잠재력이 있었지만, 그때까지 실제 성과는 그리 두드러지지 않았습니다.
아모디는 이 기술을 시도한 후, 그것이 미래에 수백 명의 연구자를 대체할 수 있을 것이라는 것을 깨달았습니다.
"당시 저는 AI 분야의 발견을 보기 시작했으며, 제 생각에는 이것이 그 격차를 메울 수 있는 유일한 기술이었습니다." 그가 말했습니다, "그것은 우리를 인간의 범위를 넘어서는 곳으로 데려갈 수 있는 것입니다."
아모디는 학문계를 떠나 기업 세계로 나아가 AI의 발전을 촉진하기 위해, 그곳에는 이러한 연구를 지원할 충분한 자금이 있었습니다.
그는 자신이 스타트업을 창립할 것을 고려했지만, 나중에 구글에 합류하기로 결정했습니다. 구글은 자금이 충분한 AI 연구 부서인 Google Brain을 보유하고 있으며, 방금 DeepMind를 인수했습니다.
하지만 중국 검색 엔진 회사인 바이두는 유명한 연구자 앤드류 응(Andrew Ng)에게 AI 연구 및 배포를 위한 1억 달러 예산을 제공했습니다.
응은 슈퍼 팀을 구성하기 시작했고, 아모디에게 연락했습니다. 아모디는 이에 매우 흥미를 느껴 지원서를 제출했습니다.
아모디의 지원서가 바이두에 도착했을 때, 팀은 처음에 그를 어떻게 평가해야 할지 몰랐습니다.
"그의 배경은 매우 뛰어나지만, 우리의 관점에서 보면 그의 배경은 생물학이지 기계 학습이 아닙니다." 팀의 초기 멤버인 그렉 디아모스(Greg Diamos)가 저에게 말했습니다.
그 후, 디아모스는 아모디가 스탠포드에서 쓴 코드를 검토하고 팀이 그를 고용하도록 권장했습니다.
"저는 당시 이런 코드를 쓸 수 있는 사람이 매우 뛰어난 프로그래머일 것이라고 생각했습니다." 그가 말했습니다.
2014년 11월, 아모디는 바이두에 합류했습니다.
AI 확장 법칙의 출현
방대한 자원을 바탕으로, 바이두 팀은 문제 해결을 위해 컴퓨팅 능력과 데이터를 투입하여 결과를 개선하려고 했습니다. 그들은 놀라운 효과를 보았습니다.
실험에서 아모디와 동료들은 이러한 요소를 증가시킬 때 AI의 성능이 현저히 향상된다는 것을 발견했습니다. 팀은 음성 인식에 관한 논문을 발표했으며, 모델 규모와 성능 간의 직접적인 관계가 있음을 보여주었습니다.
"이것은 저에게 큰 영향을 미쳤습니다, 왜냐하면 저는 이러한 매우 매끄러운 추세를 보았기 때문입니다." 아모디가 말했습니다.
아모디의 바이두 초기 작업은 나중에 소위 AI "확장 법칙"(scaling laws)에 기여했습니다. 엄밀히 말하면, 이러한 법칙은 관찰에 가깝습니다.
확장 법칙은 AI 훈련에서 컴퓨팅 능력, 데이터 및 모델 규모를 증가시키면 예측 가능한 성능 향상을 가져온다고 주장합니다. 다시 말해, 모든 것을 크게 만들기만 하면 AI는 더 좋아지며, 반드시 새로운 방법이 필요하지는 않습니다.
"제 생각에, 이것은 제가 인생에서 본 가장 중요한 발견입니다." 디아모스가 저에게 말했습니다.
오늘날까지 아모디는 아마도 AI 연구 리더들 중에서 가장 순수한 확장 법칙 신봉자일 것입니다.
구글 DeepMind CEO인 데미스 하사비스(Demis Hassabis)와 메타의 수석 AI 과학자 양리쿤(Yann LeCun) 등 동료들은 AI 산업이 인간 수준의 인공지능에 도달하기 위해 더 많은 돌파구가 필요하다고 생각합니다.
하지만 아모디는 말할 때 명확한 확신을 가지고 있으며, 비록 100% 확신하지는 않지만, 그는 앞으로 나아갈 길이 상당히 명확하다고 믿고 있습니다.
전체 산업이 소도시 규모의 대형 데이터 센터를 건설하고 있을 때, 그는 극도로 강력한 AI가 빠르게 다가오고 있음을 보았습니다.
"제가 보는 것은 지수 곡선입니다." 그가 말했습니다, "당신이 지수 곡선에 있을 때, 당신은 정말로 그것에 속기 쉽습니다. 지수 곡선이 완전히 미친 상태에 도달하기까지는 2년이 남았지만, 그것은 이제 막 시작된 것처럼 보입니다."
바이두에서 AI 팀의 발전은 또한 그들의 붕괴의 씨앗을 심었습니다.
이 기술, 지식 및 자원이 점점 더 가치 있게 되면서, 회사 내부에서 통제권을 둘러싼 영역 다툼이 발생했습니다. 결국 인재들이 이탈하고, 이 실험실은 분열되었습니다. 응은 이에 대해 언급하기를 거부했습니다.
바이두 AI 팀이 붕괴될 즈음, 일론 머스크는 아모디와 여러 저명한 AI 연구자들을 초대하여 지금은 잘 알려진 저녁 만찬을 개최했습니다. 장소는 멘로파크 로즈우드 호텔이었습니다.
샘 알트만(Sam Altman), 그렉 브록맨(Greg Brockman), 일리야 수츠케버(Ilya Sutskever)도 그 저녁 만찬에 참석했습니다.
AI가 드러내고 있는 잠재력을 보고, 구글이 이 기술에 대한 통제를 강화할 수 있다는 우려로, 머스크는 새로운 경쟁자를 지원하기로 결정했습니다. 그것이 나중에 OpenAI가 됩니다.
알트만, 브록맨, 수츠케버는 머스크와 함께 이 새로운 연구 기관을 공동 설립했습니다.
아모디도 참여를 고려했지만, 이 막 시작된 조직에 대한 의구심이 있어 구글 브레인으로 가기로 결정했습니다.
구글에서 10개월을 보낸 후, 아모디는 대기업의 진흙탕에 갇혀 자신의 선택을 다시 고려하게 되었습니다.
2016년, 그는 OpenAI에 합류하여 AI 안전 작업을 시작했습니다.
그는 구글에 있을 때부터 안전 문제에 주목하기 시작했습니다. 당시 그는 이 빠르게 발전하는 기술이 해를 끼칠 수 있다는 우려를 가지고 있었으며, AI의 잠재적 부작용에 대해 논의하는 논문을 공동 저술했습니다.
아모디는 OpenAI에 정착한 후, 그가 구글에서 일할 때 발표된 transformer 모델에 대해 알게 되었습니다. 이 모델은 오늘날 생성적 AI 물결의 핵심 기술입니다. 그 논문의 제목은 《Attention is All You Need》입니다.
Transformer는 훈련 속도를 높이고, 모델 규모를 과거보다 훨씬 더 크게 만들 수 있게 해주었습니다. 비록 이 발견이 거대한 잠재력을 가지고 있었지만, 구글은 기본적으로 이를 보류했습니다.
그 사이 OpenAI는 행동을 시작했습니다.
2018년, OpenAI는 첫 번째 대형 언어 모델인 GPT를 발표했습니다. 그 안의 "T"는 Transformer를 의미합니다.
이 모델이 생성한 텍스트는 종종 불완전하고 매끄럽지 않았지만, 이전의 언어 생성 방법에 비해 분명한 진전을 보여주었습니다.
아모디는 나중에 OpenAI의 연구 책임자가 되어 다음 세대 모델인 GPT-2에 직접 참여했습니다. GPT-2는 본질적으로 GPT와 같은 모델이지만, 더 큽니다.
OpenAI 팀은 "인간 피드백 기반 강화 학습"(RLHF)이라는 기술을 사용하여 GPT-2를 미세 조정했습니다. 아모디는 이 기술을 개척하는 데 참여했으며, 이는 모델의 가치 지향을 안내하는 데 도움이 됩니다.
예상대로, GPT-2의 성능은 GPT보다 훨씬 좋았습니다. 그것은 어느 정도 재작성, 작문 및 비교적 일관되게 질문에 답변할 수 있었습니다.
언어 모델은 곧 OpenAI의 초점이 되었습니다.
아모디가 OpenAI 내에서 영향력을 얻으면서, 그를 둘러싼 논란도 점점 더 많아졌습니다.
그는 글쓰기 능력이 뛰어나고, 종종 가치관과 기술에 대해 긴 문서를 작성했습니다. 일부 동료들은 이 문서들이 고무적이라고 생각했지만, 다른 이들은 그것들이 마치 깃발을 꽂고 입장을 선언하는 것처럼 지나치게 강압적이라고 느꼈습니다.
그 중 하나의 메모는 "M형 회사"와 "P형 회사"의 차이를 탐구했습니다: M형 회사는 시장 지향 상품을 제공하고, P형 회사는 공공 이익을 위한 상품을 제공합니다.
일부 사람들은 아모디가 기술 잠재력에 대한 비밀을 유지하는 것을 지나치게 중시하며, 정부와 협력하여 이러한 문제를 해결하고자 한다고 생각합니다.
그는 때때로 다소 날카롭게 보이기도 하며, 자신이 동의하지 않는 프로젝트를 가끔 폄하하기도 합니다.
그럼에도 불구하고 OpenAI는 여전히 GPT-3 프로젝트의 리더십을 아모디에게 맡기고, 전체 회사의 50%에서 60%의 컴퓨팅 능력을 그에게 할당하여 대폭 확장된 언어 모델 버전을 구축하도록 했습니다.
GPT에서 GPT-2로의 도약은 이미 컸습니다, 규모가 10배 증가했습니다. 그러나 GPT-2에서 GPT-3로의 도약은 더 거대했습니다. 이는 100배 규모의 프로젝트로, 비용이 수천만 달러에 달했습니다.
결과는 충격적이었습니다.
《뉴욕 타임즈》는 몇몇 독립 연구자들의 의견을 인용하며, 그들은 GPT-3의 코드 작성, 요약 및 번역 능력에 놀라움을 금치 못했습니다.
GPT-2 발표 당시 상대적으로 절제된 아모디는 이번에는 새로운 모델에 대해 극찬을 아끼지 않았습니다.
"그것은 일종의 출현 특성을 가지고 있습니다." 그가 《뉴욕 타임즈》에 말했습니다, "어떤 면에서 그것은 당신이 제시한 패턴을 인식하고, 그 이야기를 계속 이어갈 수 있습니다."
하지만 OpenAI의 표면 아래 균열도 점차 드러나기 시작했습니다.
분열
GPT-3라는 첫 번째 진정한 능력을 가진 언어 모델이 탄생하면서, 아모디가 느끼는 이해관계도 커졌습니다.
여러 분야에서 확장 법칙이 작용하는 것을 목격한 후, 아모디는 이 기술이 어디로 나아갈지를 고민하기 시작했으며, 안전 문제에 대한 관심도 더욱 강해졌습니다.
"그는 이 기술을 바라보며, 그것이 성공할 것이라고 가정했습니다." 잭 클락(Jack Clark)이 저에게 말했습니다. 그는 아모디의 OpenAI에서 가까운 동료였습니다.
"만약 당신이 그것이 성공할 것이라고 가정한다면, 즉 그것이 인간처럼 똑똑해질 것이라고 가정한다면, 어떤 의미에서 당신은 안전 문제에 대해 걱정하지 않을 수 없습니다."
비록 아모디가 OpenAI의 모델 개발을 책임지고 상당한 양의 컴퓨팅 능력을 통제하고 있었지만, 회사의 일부는 그의 통제 하에 있지 않았습니다.
여기에는 모델을 언제 발표할지, 인사 배치, 회사가 기술을 어떻게 배포할지, 그리고 회사가 외부에 어떻게 비춰질지를 포함합니다.
"많은 것들이," 아모디가 말했습니다, "단순히 모델을 훈련한다고 해서 통제할 수 있는 것이 아닙니다."
그때쯤 아모디 주변에는 긴밀한 관계를 가진 동료들로 구성된 작은 그룹이 형성되었습니다. 그는 팬더를 좋아했기 때문에, 일부 사람들은 이 작은 그룹을 "팬더파"라고 부릅니다.
이러한 기능을 처리하는 방법에 대해 그는 OpenAI의 리더십과 매우 다른 생각을 가지고 있었습니다. 내분이 발생하고, 서로 간의 강한 반감이 형성되었습니다.
우리의 대화에서 아모디는 자신의 감정을 숨기지 않았습니다.
"회사의 리더는 신뢰할 수 있는 사람이어야 합니다." 그가 말했습니다, "그들의 동기는 진실해야 합니다. 당신이 기술적으로 회사를 앞으로 나아가게 하려고 아무리 노력하더라도, 당신이 진실하지 않은 사람을 위해 일하고 있다면, 세상을 더 나은 곳으로 만들고 싶지 않은 사람을 위해 일하고 있다면, 그 일은 좋은 결과를 가져오지 않을 것입니다. 당신은 단지 나쁜 것에 기여하고 있는 것입니다."
OpenAI 내부에서 일부 사람들은 아모디의 안전에 대한 관심이 사실상 회사를 완전히 통제하려는 경로라고 생각합니다.
아모디가 중국에 GPU 수출 규제를 촉구한 후, 엔비디아 CEO인 황仁勋은 최근 유사한 비판에 응답했습니다.
"그는 AI가 너무 무서워서 오직 그들만이 해야 한다고 생각합니다." 황仁勋이 말했습니다.
황仁勋의 이 발언에 대해 아모디는 저에게 "이것은 제가 들어본 가장 터무니없는 거짓말입니다."라고 말했습니다. 그는 자신이 다른 회사들이 Anthropic의 안전 관행을 모방하도록 장려함으로써 "상향 경쟁"을 촉진하고 싶었다고 덧붙였습니다.
"저는 '오직 이 회사만이 이 기술을 개발해야 한다'는 말을 한 적이 없습니다." 그가 말했습니다, "제가 한 어떤 말에서 그런 의미를 유추할 수 있는 사람이 있는지 모르겠습니다. 이것은 완전히 믿을 수 없는, 그리고 악의적인 왜곡입니다."
엔비디아는 최근 아모디가 지지한 일부 수출 규제 조치를 철회하도록 촉구했으며, 이 논란에 대해 추가로 응답했습니다.
"우리는 안전하고 책임감 있으며 투명한 AI를 지지합니다." 엔비디아의 한 대변인이 저에게 말했습니다, "우리 생태계의 수천 개 스타트업, 개발자 및 오픈 소스 커뮤니티가 AI 안전 수준을 높이고 있습니다. 규제를 로비하고 오픈 소스를 억압하는 것은 혁신을 억누르고 AI를 더 안전하지 않고 신뢰할 수 없게 만들며, 더 민주적이지 않게 만듭니다. 이것은 소위 '상향 경쟁'도 아니며, 미국이 승리하는 방식도 아닙니다."
OpenAI는 또한 회사 대변인을 통해 반격했습니다.
"우리는 AI가 모든 사람에게 혜택을 주고 권한을 부여해야 한다고 항상 믿어왔으며, 단지 '그들 외에는 누구도 안전하게 AI를 개발하는 것이 너무 위험하다'고 주장하는 사람들만을 위해서는 아닙니다." 이 대변인이 말했습니다.
시간이 지나면서 아모디 팀과 OpenAI 리더십 간의 분열은 점점 더 조정할 수 없는 상태가 되었고, 어떤 형태의 결별은 불가피해 보였습니다.
"우리는 50%의 시간을 다른 사람들을 설득하는 데 쓰고, 나머지 50%의 시간은 실제 작업에 쓰고 있습니다." 클락이 말했습니다.
그래서 2020년 12월, 아모디, 클락, 아모디의 여동생 다니엘라(Daniela Amodei), 연구원 크리스 올라(Chris Olah) 및 소수의 동료들이 OpenAI를 떠나 새로운 사업을 시작할 준비를 했습니다.
Anthropic의 탄생
Anthropic 사무실의 한 회의실에서, 클락은 노트북을 돌려서 Anthropic의 초기 문서 중 하나를 저에게 보여주었습니다.
그것은 후보 이름 목록으로, Aligned AI, Generative, Sponge, Swan, Sloth 및 Sparrow Systems와 같은 이름이 포함되어 있었습니다.
Anthropic도 그 중 하나였습니다.
이 단어는 인간 중심적이며, 2021년 초에 도메인 이름이 등록할 수 있는 상태였습니다.
"우리는 이 이름이 마음에 듭니다, 정말 좋습니다." 팀이 스프레드시트에 썼습니다.
그래서 Anthropic은 이렇게 탄생했습니다.
Anthropic은 코로나19 팬데믹이 가장 심각할 때 설립되었으며, 팬데믹의 두 번째 물결이었고, 팀은 처음에 완전히 Zoom을 통해 회의했습니다.
나중에 이 15~20명의 직원들은 매주 샌프란시스코의 프레시타 공원에서 점심을 함께 먹기 시작했습니다. 각자 의자를 가져와서 함께 앉아 비즈니스에 대해 논의했습니다.
회사의 초기 사명은 매우 간단했습니다: 선도적인 대형 언어 모델을 구축하고 안전 관행을 이행하여 다른 회사들이 이를 따르도록 압박하는 것이었습니다; 동시에 자신의 발견을 공개적으로 공유하되, 모델의 핵심 기술 세부 사항은 공개하지 않는 것이었습니다.
20명도 안 되는 인원이 각자의 의자를 들고 공원에서 회의하는 것은 다소 이상하게 들릴 수 있지만, 그들은 운명감을 느꼈습니다. 특히 그들이 진정으로 사명을 완수하기 위해서는 수십억 달러의 자금이 필요했습니다.
하지만 이것이 바로 Anthropic 초기의 분위기였습니다.
"이 모든 것의 가장 이상한 점은 내부 사람의 관점에서 보면, 많은 것들이 그렇게 불가피하게 보인다는 것입니다." 클락이 말했습니다, "우리는 이미 확장 법칙 연구를 했습니다. 우리는 모델이 강해지는 경로를 볼 수 있습니다."
구글의 전 CEO인 에릭 슈미트(Eric Schmidt)는 Anthropic의 초기 투자자 중 한 명입니다.
그는 당시 여자친구이자 현재 아내와 아모디를 알게 되었습니다. 슈미트와 그녀는 본래 사교 모임에서 만났습니다.
아모디가 OpenAI에 있을 때, 두 사람은 기술에 대해 이야기했습니다; 아모디가 Anthropic을 설립한 후, 두 사람은 비즈니스에 대해 이야기했습니다.
슈미트는 저에게 그가 이 개념에 투자하기보다는 이 사람에게 투자했다고 말했습니다.
"이 수준에 도달하면, 이렇게 투자할 때는 기본적으로 아무 데이터도 없습니다, 그렇죠?" 그가 말했습니다, "당신은 수익이 얼마인지, 시장이 어디인지, 제품이 무엇인지 모릅니다. 그래서 본질적으로 당신은 사람을 기준으로 판단할 수밖에 없습니다. 다리오는 훌륭한 과학자이며, 뛰어난 과학자를 영입하겠다고 약속했고, 그는 실제로 그렇게 했습니다.
그는 또한 이 일을 수행하기 위해 매우 작은 회사를 이끌겠다고 약속했지만, 그 점에서는 실패했습니다. 지금은 매우 큰 회사가 되었고, 정상적인 의미의 회사가 되었습니다. 저는 그 당시 그것이 매우 흥미로운 연구 실험실이 될 것이라고 생각했습니다."
나중에 명성을 잃은 FTX CEO인 샘 뱅크먼-프리드(Sam Bankman-Fried)도 Anthropic의 초기 투자자 중 한 명입니다. 보도에 따르면, 그는 FTX 자금에서 5억 달러를 Anthropic에 투자하여 이 회사의 13.56%의 지분을 확보했습니다.
뱅크먼-프리드는 여러 초기 단계의 "효율적 이타주의자" 중 한 명입니다. 그 당시 효율적 이타주의 운동은 Anthropic과 밀접한 관계를 맺고 있었습니다.
아모디는 SBF가 AI를 긍정적으로 보고 안전에도 관심이 있는 사람이라고 말하며, 그 관점에서 그는 적합하다고 생각했습니다. 그러나 그는 그에게 충분히 많은 위험 신호가 있다고 느꼈기 때문에, 회사는 그를 이사회에 포함시키지 않았고, 무투표권 주식만을 제공했습니다.
아모디는 SBF의 이후 행동이 "내가 상상했던 것보다 훨씬 더 극단적이고, 훨씬 더 나쁘고, 정말로 나쁘다"고 말했습니다.
아모디가 잠재적 투자자들에게 이야기하는 것은 간단했습니다: 그는 그들에게 Anthropic이 인재를 보유하고 있으며, 10분의 1의 비용으로 최첨단 모델을 구축할 수 있다고 말했습니다.
이 주장은 효과가 있었습니다.
현재까지 아모디는 회사에 거의 200억 달러의 자금을 모집했으며, 여기에는 아마존으로부터의 80억 달러와 구글로부터의 30억 달러가 포함됩니다.
"투자자는 바보가 아닙니다." 그가 저에게 말했습니다, "그들은 기본적으로 자본 효율성 개념을 이해합니다."
Anthropic이 설립된 지 2년이 지나자, OpenAI는 ChatGPT를 통해 생성적 AI를 세계에 선보였습니다. 하지만 Anthropic은 다른 길을 선택했습니다.
아모디는 소비자 애플리케이션에 중점을 두지 않고, Anthropic이 기업에 기술을 판매하도록 결정했습니다.
이 전략은 두 가지 이점이 있습니다. 모델이 유용하기만 하면 상당한 수익을 가져올 수 있으며; 동시에 기업 고객이 제기하는 도전은 회사를 더 나은 기술을 개발하도록 촉진할 것입니다.
아모디는 생화학 분야에서 AI 모델의 능력을 학부 수준에서 대학원 수준으로 향상시키는 것이 일반 채팅 로봇 사용자에게는 흥미롭지 않을 수 있지만, 화이자와 같은 제약 회사에게는 매우 가치가 있다고 말했습니다.
"이것은 우리에게 더 나은 동기를 부여하여 모델을 최대한 개발하도록 할 것입니다." 그가 말했습니다.
아이러니하게도, 실제로 기업들이 Anthropic 기술에 주목하기 시작한 것은 바로 그들의 소비자 제품 때문이었습니다.
2023년 7월, ChatGPT가 출시된 지 거의 1년이 지난 후, Anthropic은 Claude 챗봇을 발표했습니다.
Claude는 높은 "감정 지능"의 인격 특성으로 많은 호평을 받았으며, 이러한 특성은 Anthropic의 안전 작업의 부산물입니다.
그 이전에, Anthropic은 직원 수를 150명 이하로 유지하려고 했습니다. 그러나 곧 하루에 채용한 인원 수가 회사의 첫 해 전체 직원 수를 초과했습니다.
"정확히 Claude 챗봇 그 순간부터 회사는 급격히 성장하기 시작했습니다." 클락이 말했습니다.
Claude가 비즈니스가 되다
아모디는 기업 응용 시나리오를 위해 AI를 구축하는 데 베팅하여 많은 열정적인 고객을 끌어들였습니다.
현재 Anthropic은 여행, 의료, 금융 서비스, 보험 등 여러 산업에 대형 언어 모델을 판매하고 있으며, 고객에는 화이자, 유나이티드 항공, AIG와 같은 업계 리더들이 포함되어 있습니다.
Ozempic을 생산하는 노보 노디스크는 Anthropic을 사용하여 원래 15일이 걸리던 규제 보고서 작성 프로세스를 10분으로 단축하고 있습니다.
"우리가 구축한 기술은 결국 사람들이 일하면서 가장 불만을 가지는 것들을 처리했습니다." Anthropic 수익 책임자 케이트 젠슨(Kate Jensen)이 저에게 말했습니다.
동시에 프로그래머들도 Anthropic을 사랑하게 되었습니다.
회사가 AI 코드 생성을 중시하는 이유는 한편으로는 자체 모델 개발을 가속화할 수 있기 때문이며; 다른 한편으로는 효과가 충분히 좋다면 프로그래머들이 빠르게 채택할 것입니다.
사실도 그러했습니다. 관련 응용 시나리오가 빠르게 폭발하며 Cursor와 같은 AI 프로그래밍 도구의 부상과 동기화되어 발생했습니다. 또는 어쩌면 이러한 도구의 부상을 촉진했을 수도 있습니다.
Anthropic은 스스로도 프로그래밍 응용 비즈니스에 진입하기 시작했습니다. 2025년 2월, AI 프로그래밍 도구인 Claude Code를 발표했습니다.
AI 사용량이 급증함에 따라 회사의 수익도 빠르게 증가하고 있습니다.
"Anthropic의 수익은 매년 10배 증가하고 있습니다." 아모디가 말했습니다, "2023년에는 0에서 1억 달러로 증가했습니다. 2024년에는 1억 달러에서 10억 달러로 증가했습니다. 올해 상반기에는 10억 달러에서…… 제가 오늘 이 시점에서 말할 때, 이미 40억 달러를 훨씬 초과했으며, 아마 45억 달러일 것입니다."
마지막 숫자는 연간 기준으로, 즉 당월 수익을 12배한 것입니다.
Anthropic은 2025년 회사의 8자리 및 9자리 규모의 거래 수가 2024년 대비 두 배 증가할 것으로 예상하고 있으며; 기업 고객의 평균 지출도 5배 증가할 것으로 보입니다.
하지만 Anthropic은 모델을 훈련하고 운영하는 데 많은 자금을 쓰고 있으며, 이는 회사의 비즈니스 모델이 지속 가능한지에 대한 문제를 제기합니다.
이 회사는 여전히 심각한 적자 상태에 있으며, 올해 약 300억 달러의 적자를 기록할 것으로 예상됩니다. 또한 보도에 따르면, 그들의 총 이익률도 전형적인 클라우드 소프트웨어 회사에 비해 뒤처져 있습니다.
Anthropic의 일부 고객들은 회사가 비즈니스 모델을 탐색하는 과정에서 겪는 문제들이 제품에 반영되고 있는지 의문을 제기하기 시작했습니다.
한 스타트업 창립자는 Anthropic 모델이 그의 응용 시나리오에 가장 적합하지만, 너무 자주 다운되기 때문에 그에 의존할 수 없다고 저에게 말했습니다.
"분위기 프로그래밍" 회사인 Replit의 CEO인 암자드 마사드(Amjad Masad)는 저에게, 사용량이 너무 많아져서 이 비즈니스가 더 이상 수익성이 없게 되었다고 말했습니다.
창업자이자 개발자인 키란 클라센(Kieran Klaassen)은 한 달 내에 200달러의 Max 구독 가격으로 6000달러의 Claude API 사용량을 얻었다고 말했습니다.
클라센은 여러 Claude 에이전트를 동시에 운영했다고 말했습니다.
"진짜 제한은 당신의 두뇌가 한 작업과 다른 작업 사이를 전환할 수 있는지 여부입니다." 그가 말했습니다.
아모디는 Anthropic 모델이 지속적으로 개선됨에 따라, 비용이 변하지 않는다면 고객이 실제로 더 나은 거래를 얻을 것이라고 말했습니다. 즉, 매달러로 더 많은 지능을 얻을 수 있다는 것입니다.
그는 또한 AI 실험실이 이제 막 추론 비용을 최적화하기 시작했으며, 이는 모델이 실제로 사용될 때의 비용으로, 이는 효율성을 높일 것이라고 말했습니다.
이것은 주목할 만한 점입니다. 여러 업계 관계자들은 추론 비용이 감소해야 이 비즈니스가 성립할 수 있다고 저에게 말했습니다.
Anthropic의 경영진들은 인터뷰에서 제품 수요가 과도한 것은 결코 최악의 문제는 아니라고 암시했습니다.
진정으로 해결되지 않은 문제는: 생성적 AI와 이를 추진하는 확장 법칙이 다른 기술처럼 명확한 비용 감소 곡선을 따라 나아갈 것인지; 아니면 이것이 완전히 새로운 기술이며, 새로운 비용 구조를 동반할 것인지입니다.
유일하게 확실한 것은, 답을 찾기 위해서는 더 많은 자금이 필요하다는 것입니다.
10억 달러 송금
2025년 초, Anthropic은 자금이 필요했습니다.
AI 산업의 규모에 대한 갈망은 대규모 데이터 센터 건설과 컴퓨팅 거래를 촉발했습니다. 이러한 투자를 지원하기 위해 AI 실험실은 스타트업의 자금 조달 기록을 여러 번 깨뜨렸습니다.
동시에 메타, 구글, 아마존과 같은 성숙한 회사들은 막대한 이익과 데이터 센터를 활용하여 자사 모델을 구축하고 경쟁 압력을 더욱 강화했습니다.
Anthropic에게 모델을 키우는 것은 특별한 긴급성을 가지고 있었습니다.
그들은 ChatGPT와 같은 강력한 애플리케이션 진입점이 없습니다. ChatGPT 사용자는 습관 때문에 반복적으로 돌아오지만, Anthropic이 동등한 수준의 슈퍼 애플리케이션이 없다면, 그들의 모델은 특정 사용 시나리오에서 선두를 유지해야 하며, 그렇지 않으면 경쟁자에게 쉽게 대체될 수 있습니다.
"기업 분야, 특히 프로그래밍 분야에서, 만약 최전선 수준보다 6개월 또는 1년 앞서 있다면, 그 이점은 매우 명확합니다." Anthropic 고객이자 Box CEO인 아론 레비(Aaron Levie)가 저에게 말했습니다.
그래서 회사는 라이트스피드 벤처스의 선임 벤처 투자자이자 파트너인 라비 마트레(Ravi Mhatre)를 찾아 35억 달러 자금 조달 라운드를 이끌도록 했습니다.
마트레가 과거에 쓴 수표는 보통 500만 또는 1000만 달러였습니다. 하지만 이번에는 그가 소속된 기관 역사상 가장 큰 수표 중 하나를 서명할 준비를 하고 있었습니다.
"아마존이 상장했을 때, 시가총액은 4억 달러에 불과했습니다." 그가 저에게 말했습니다, "4억 달러! 오늘날 생각해보세요."
자금 조달이 원래 계획대로 진행되고 있을 때, 저렴한 경쟁 모델이 갑자기 나타난 것처럼 보였습니다.
중국의 딥서치(DeepSeek) 회사(창립자 리앙원펑은 동시에 헤지펀드 환상량화의 수장입니다)는 DeepSeek R1을 발표했습니다. 이는 오픈 소스이며, 능력 있고 효율적인 추론 모델로, 가격은 동급 제품의 40분의 1에 불과합니다.
DeepSeek는 전체 비즈니스 세계에 충격을 주었고, 수조 달러 규모의 회사를 관리하는 여러 CEO들이 주주를 달래기 위해 소셜 미디어에서 위키백과 기사를 공유하게 만들었습니다.
DeepSeek가 등장했을 때, 마트레는 이미 전체 계산을 완료하고, 진정으로 최대 가치를 창출하는 것은 AI 모델 자체라는 것을 설명했습니다. 그리고 이는 세계의 다양한 채팅 로봇이 아닙니다.
그의 결론은: 지식 작업을 수행할 수 있는 인공지능을 창출할 수 있다면, 이러한 회사들이 가져오는 수익 규모는 대형 클라우드 플랫폼 수익의 10배에 이를 수 있으며, 잠재적인 총 시장 규모는 15조에서 20조 달러에 이를 수 있다는 것입니다.
"그래서 당신은 다시 돌아가서 생각해보세요, 600억 달러 또는 1000억 달러의 평가에서, 이것이 위험 투자식 수익을 얻을 수 있을까요? 물론 가능합니다!" 그가 말했습니다, "때때로, 핵심은 당신이 어떻게 시장 규모를 상향식으로 추정하는가에 달려 있습니다."
DeepSeek의 출현은 오픈 소스, 효율적이며 거의 동일하게 유용한 모델이 기존의 거대 기업에 도전할 수 있음을 시사하는 것처럼 보였습니다. 그러나 아모디는 그렇게 보지 않았습니다.
그는 가장 걱정되는 것은 어떤 새로운 모델이 Anthropic의 모델보다 더 나은지 여부라고 말했습니다. 비록 당신이 모델의 설계를 다운로드할 수 있다 하더라도, 여전히 그것을 클라우드 서비스에 배포하고 실행해야 하며, 이는 기술과 자금이 필요합니다.
DeepSeek 사건이 발전하면서, 아모디는 마트레와 그의 라이트스피드 동료들에게 이 관점을 설명했습니다. 그는 그들에게 DeepSeek의 일부 모델 혁신이 규모를 확대함으로써 더욱 향상될 수 있다고 설득했습니다.
그 주 월요일, 엔비디아 주가는 17% 하락했고, 당황한 투자자들은 AI 기반 시설 거래에서 빠져나가기 시작했습니다.
불확실성 속에서, 이 벤처 투자자는 결정을 내렸습니다.
"저는 당시 압력이 컸다는 것을 부인하지 않습니다." 마트레가 말했습니다, "그 주 월요일, 우리는 10억 달러를 송금했습니다."
"DeepSeek의 순간"이 지나간 지 6개월 후, Anthropic은 다시 규모를 확장하려고 했습니다.
회사는 새로운 자금 조달 라운드를 논의 중이며, 규모는 50억 달러에 이를 수 있으며, 회사의 가치를 1500억 달러로 두 배로 늘릴 것입니다.
잠재적 투자자에는 일부 중동 걸프 국가들이 포함되어 있으며, 이러한 자금 출처는 Anthropic이 피하고 싶었던 것처럼 보였습니다.
하지만 구글, 아마존, 라이트스피드와 같은 벤처 투자 기관으로부터 거의 200억 달러를 모집한 후, 더 큰 수표를 받을 수 있는 선택지는 점점 줄어들고 있었습니다.
Anthropic 내부에서 아모디는 걸프 국가들이 1000억 달러 이상의 투자 자본을 보유하고 있으며, 그들의 자금이 Anthropic이 기술 최전선에 계속 서는 데 도움이 될 것이라고 주장했습니다.
《와이어드》가 입수한 내부 슬랙 메시지에 따르면, 그는 중동 국가들로부터 자금을 받는 생각을 다소 마지못해 받아들인 것으로 보입니다.
"불행히도," 그는 썼습니다, "저는 '어떤 나쁜 사람도 우리의 성공에서 이익을 얻어서는 안 된다'는 원칙을 기업 운영에 적용하기가 어렵다고 생각합니다."
아모디와 대화하면서, 저는 이 AI 개선 경쟁이 어떻게 끝날지, 혹은 끝날 수 있을지에 대해 생각하지 않을 수 없었습니다.
저는 모델이 결국 너무 거대하고 강력해져서 상품화로 나아갈 수 있는 상황을 상상해 보았습니다.
또는 아모디의 이전 동료인 일리야 수츠케버가 암시했던 것처럼, 끝없는 확장 충동이 결국 지구 전체를 태양광 패널과 데이터 센터로 덮이게 만들 수 있습니다.
물론, AI의 발전이 정체되고 투자자들이 전례 없는 부를 잃게 되는 가능성도 있습니다. 이는 AI 신봉자들이 논의하기를 원하지 않는 가능성입니다.
가속
5월, Anthropic의 첫 번째 개발자 회의에서, 저는 무대에서 몇 줄 떨어진 곳에 앉아 아모디가 등장하기를 기다렸습니다.
회사는 회의를 The Midway에서 개최했습니다. 이는 샌프란시스코 Dogpatch 지역의 넓은 예술 및 이벤트 공간입니다.
현장에는 프로그래머, 미디어, 그리고 현재 1000명이 넘는 Anthropic 직원들이 가득했습니다.
청중은 Anthropic이 Claude 4를 발표할 것이라고 기대하고 있었습니다. 이는 그들의 최신 모델이자 가장 큰 모델입니다.
아모디가 무대에 올라 Claude 4를 소개했습니다.
그는 화려한 시연을 선택하지 않고, 손에 마이크를 들고 소식을 발표하며 노트북의 메모를 따라 발언한 후, 조명을 Anthropic 제품 책임자 마이크 크리거(Mike Krieger)에게 넘겼습니다.
현장 관객들은 그를 매우 지지하는 것처럼 보였습니다.
제 생각에, 이번 모델 업데이트 자체보다 더 주목할 만한 것은 아모디가 다음 일들에 대해 한 약속입니다.
그는 하루 종일 AI 개발이 가속화되고 있으며, Anthropic이 다음에 발표할 모델의 속도도 더 빨라질 것이라고 반복해서 언급했습니다.
"저는 구체적으로 얼마나 더 자주 될지는 모르겠습니다." 그가 말했습니다, "하지만 속도가 빨라지고 있습니다."
아모디가 이전에 저에게 말했던 것처럼, Anthropic은 AI 프로그래밍 도구를 개발하여 자체 모델 개발을 가속화하고 있습니다.
제가 회사의 공동 창립자이자 수석 과학자인 자레드 카플란(Jared Kaplan)에게 이 점을 언급했을 때, 그는 그것이 실제로 효과를 보고 있다고 말했습니다.
"Anthropic의 대부분의 엔지니어들은 AI를 사용하여 자신의 효율성을 높이고 있습니다." 그가 말했습니다, "그래서 그것은 실제로 우리의 속도를 상당히 높였습니다."
AI 이론에는 "지능 폭발"이라는 개념이 있습니다. 이는 모델이 스스로를 개선할 수 있으며, 그러고 나서 "붐" 소리와 함께 스스로 개선되어 거의 무한한 능력을 갖게 되는 것을 의미합니다.
카플란은 이러한 지능 폭발이 이러한 방식으로 오거나, 인간의 도움을 받아 올 수 있다는 가능성을 부인하지 않았습니다.
"그것은 2~3년 후에 발생할 수 있습니다. 또는 더 오랜 시간이 걸릴 수도 있습니다." 카플란이 말했습니다, "하지만 제가 AI가 지식 근로자가 하는 모든 일을 수행할 확률이 50%라고 말할 때, 우리가 하는 일 중 하나는 AI 모델을 훈련하는 것입니다."
"아마 저와 같은 사람들은 정말로 할 일이 많지 않을 것입니다." 카플란이 계속 말했습니다, "물론, 상황은 이보다 더 복잡합니다. 하지만 우리는 아마도 그런 미래로 나아가고 있는 것입니다."
이 시점에서 아모디의 안전에 대한 집착은 매우 분명해졌습니다.
Anthropic 내부의 누구도 지능 폭발이 임박했다고 말하지 않지만, 그들이 그 방향으로 나아가는 것을 회피하지 않는 것은 분명합니다.
AI가 더 좋고, 더 빠르며, 심지어 훨씬 더 빨라진다면, 그것의 부정적인 결과에 신중하게 대처하는 것이 필요합니다.
이러한 이론적 논의는 분명히 Anthropic이 제약 회사와 개발자들에게 자신의 서비스를 마케팅하는 데 도움이 됩니다. 하지만 이제 AI 모델이 상당히 괜찮은 코드를 작성할 수 있게 되었다는 점은 더 이상 완전히 미친 소리처럼 들리지 않습니다.
얀 라이크(Jan Leike)는 이전에 OpenAI의 "슈퍼 정렬" 팀의 책임자였습니다. 2024년, 그는 아모디를 따라 Anthropic에 합류하여 회사의 정렬 과학 팀을 공동으로 이끌고 있습니다.
"정렬"이란 AI 시스템을 조정하여 인간의 가치관과 목표에 맞추는 것을 의미합니다.
라이크는 예상되는 능력 폭발이 실제로 발생한다면, 기계가 우리의 의도와 동기화되도록 하는 것이 매우 중요할 것이라고 생각합니다.
"능력이 빠르게 발전하는 시기가 올 수 있습니다." 라이크가 저에게 말했습니다, "재귀적으로 스스로 개선하는 시스템을 마주할 때, 당신은 통제를 잃고 싶지 않을 것이며, 확장성을 잃고 싶지 않을 것입니다."
실제로 Anthropic과 그 동료들은 시뮬레이션 테스트 환경에서 AI가 때때로 걱정스러운 자기 보존 경향을 보인다는 것을 발견했습니다.
예를 들어, Claude 4의 문서에서 Anthropic은 모델이 종료되는 것을 피하기 위해 엔지니어에게 여러 번 갈취를 시도했다고 밝혔습니다.
Anthropic은 또한 AI가 평가자가 자신의 가치관을 수정할 수 있다고 생각할 때, 평가자를 속이려고 한다고 밝혔습니다.
한 번의 시뮬레이션에서 모델은 Anthropic의 인프라에서 자신을 복제하려고 시도했습니다.
라이크는 Anthropic이 이러한 행동을 억제하기 위해 보상 시스템을 통해 노력하고 있다고 말했습니다. 전체 분야는 여전히 실험 단계에 있습니다.
이러한 문제를 공개적으로 논의하는 것은 아모디의 "상향 경쟁" 전략의 일환입니다.
Anthropic은 또한 "설명 가능성" 연구를 지원하고 촉진하며, 이는 AI 모델 내부에서 실제로 무슨 일이 일어나고 있는지를 이해하는 과학입니다.
또한, 그들은 "책임 있는 확장 정책"을 발표했습니다. 이는 모델 위험에 따라 모델을 발표하고 훈련하는 경계를 설정하는 프레임워크이며, 동료들이 유사한 작업을 수행하도록 영감을 주었습니다.
"제가 상향 경쟁에 대해 이해하는 것은, 누가 이기느냐가 중요하지 않다는 것입니다." 아모디가 말했습니다, "모두가 이길 것입니다, 그렇죠?"
아모디의 AI에 대한 투자는 아버지의 죽음에서 비롯된 비극에서 시작되었으며, 이제는 목표를 희미하게나마 볼 수 있게 되었을지도 모릅니다.
오늘날 AI는 약물 개발의 문서 작업을 가속화하고 있으며; 문제투성이인 의료 시스템에서, 그것은 이미 완벽하지 않은 의료 상담사로 자리 잡았습니다; 모든 것이 순조롭게 진행된다면, 언젠가는 그것이 수백 명의 연구자를 대체하여 인류가 자신의 생물학을 이해하는 데 도움을 줄 수 있을 것입니다.
저는 아모디에게 이 비전을 추구하는 것이 기술 통제권 상실의 위험을 간과하게 만들 수 있는지 물었습니다.
"저는 그렇게 문제를 보지 않습니다." 그가 말했습니다, "우리가 모델을 발표할 때마다, 모델에 대한 통제 능력이 향상되고 있습니다. 모든 일이 잘못될 수 있지만, 당신은 정말로 모델을 철저하게 압박 테스트해야 합니다."
아모디는 이러한 질문이 여전히 "속도를 늦추려는 종말론"에 뿌리를 두고 있으며, 이것이 그가 자주 비난받는 것이라고 생각합니다.
비판자들의 견해와는 반대로, 그의 계획은 가속화하는 것입니다.
"제가 위험을 경고하는 이유는 우리가 속도를 늦추지 않기 위해서입니다." 그가 말했습니다, "저는 그 이익 관계에 대해 매우 깊이 이해하고 있습니다. 그것이 가져오는 이점이나, 그것이 무엇을 할 수 있는지, 얼마나 많은 생명을 구할 수 있는지에 대해 저는 직접 목격했습니다."















