갤러리 이슈박스, 최근방문 갤러리
연관 갤러리
우울증 갤러리 타 갤러리(0)
이 갤러리가 연관 갤러리로 추가한 갤러리
0/0
타 갤러리 우울증 갤러리(0)
이 갤러리를 연관 갤러리로 추가한 갤러리
0/0
개념글 리스트
1/3
- 싱글벙글 친구 아내 장례식장에서 돼지처럼 먹은 사람 ㅇㅇ
- 트럼프, 한미훈련 중단 가능성 언급 ㄹㅇ 예도리
- 에어부산 항공기 화재, 정체불명 `선반 속 물체 이별의순간
- 일일이 다 대조? 바로바로 '삑'…아이돌 팬미팅 '얼굴 패스' 마스널
- 지난 10년간 대통령들이 보낸 설 선물들 jpg 野獣先輩
- 싱글벙글 아즈카반 안간게 다행이라는 헤르미온느 행적모음 공치리구
- 한국,중국집에 시집오면 안되는 이유 부갤러
- 코카콜라에서 '염소산염' 다량 검출 마스널
- 장애는 없지만 휠체어를 타고다니는 트랜스장애인.jpg 뽀까칩
- 공붕이 심해생물들 도트 찍었다. 카카후카
- 겨울 스코틀랜드 뚜벅이 여행기 15. 킬커란, Watt Whisky Tulbae
- 싱글벙글 어르신들이 자주 헷갈리는 뿌리 식물 ㅇㅇ
- 등린이 화대종주 중탈 후기 김근수과장
- [망한머리 구조대 미용실형] 개념글 가성비 끝판왕 2만원 짜리 다운펌 미용실형
- 싱글벙글 박태준 명예회장과 포항제철 이야기 ㅇㅇ
설특집 인디 보드게임 제작기
안녕하세요 개발자 백인용입니다.지난번에 올렸던 홍보글[홍보]신작 인디 보드게임 '나인스란드' +버거이벤의 제작기입니다고향에 내려왔는데 컴퓨터가 없어서 일을 못하는 환경이 돼버렸고, 그동안 있었던 일을 일기처럼 정리해봤습니다.게임 좋아하는 아재가 이상한 짓 하면서 살아왔구나 하고 재밌게 읽어주시면 감사하겠습니다. 초~중학생 시절 ‘유희왕 애니메이션’이 나오고 유행하기 전부터 타카하시 카즈키님의 ‘유희왕’ 만화책을 접하게 됩니다. 생각해보면 이 작품이 절 게이머이자 보드게이머로 인도하지 않았나 싶습니다.(△ 어릴 때 즐겨보던 ‘유희왕’ 만화책. 지금봐도 멋있다.) 이후 게임을 만들고 싶다는 생각에 연습장에 끄적이며 게임을 구상하고, 직접 그림을 그리고, 가위로 오리고, 지우개를 조각해서 말을 만들어서 게임을 만들었습니다. 재밌는 추억이지만 막상 게임은 개똥겜이었죠.ㅎㅎ(△ 어릴 때 만든 게임. 볼펜으로 직접 손으로 그렸다. 이제보니 미쳤었네.) 고등학교 때, ‘나인스란드’에 대한 아이디어를 처음으로 떠올리게 되지만, 러프한 수준이었고, 공부하는 시간 외에는 PC게임 하느라 보드 게임을 만들지 않았습니다. PC 게임을 재밌게, 정말 많이 했는데, 영향을 크게 준 게임만 꼽자면, ‘워크래프트3’, ‘삼국지 조조전’, ‘히어로즈 오브 마이트 앤 매직 시리즈’입니다. 특히 삼국지 조조전 같은 SRPG에서 많은 영감을 받았습니다.(△ 이제는 추억이 되어버린 쟁쟁한 갓겜들. 이동범위 공격범위 등의 개념은 조조전을 보고 떠올렸다.) 고등학교를 졸업하고 괜찮은 대학교를 붙었지만, 막상 수업은 잘 안듣고 뒤에서 러프하게 발상만 해놨던 보드게임 아이디어를 구체화 시키는 데 시간을 쏟습니다. 만들어진 프로토타입 게임이 너무 재밌어서, 대학교 선후배들을 꼬셔서 팀을 만들고 모바일게임으로 만들자는 프로젝트를 시작합니다. 다들 처음에 같이 게임 만들자고 할 때는 심드렁 하다가도, 만든 프로토 타입 게임을 한두 판 플레이하면 금방 설득이 되었습니다. 그만큼 참신함과 재미에 자신이 있었습니다.(△ 대학생 때 만든 보드게임. 프로토타입. 처음에는 가림막을 사용하지 않고 자석이 달린 판을 직접 들어서 비공개 정보를 만들었다.) 인디 게임의 개발비는 커피, 라면, 고기값이라고 하지요. 제가 좋아하는 음료인 데자와를 박스로 사서 혈관에 카페인을 공급하면서 대학교 선후배들과 게임 개발을 계속합니다.(△선후배들과 게임 만들던 시절 자취방 냉동실. 대용량으로 사면 고기가 야채보다 쌉니다.)(△ 데자와가 항상 구비되어 혈관에 카페인을 공급해주었다. 나름 열심히 개발했지만…) 하지만, 목표로 하는 게임은 하스스톤 같은, 카드 뽑기 시스템이 들어간 라이브 서비스 PVP 게임이었고, 대학생 선후배로 구성된 아마추어 팀이 감당하기에는 프로젝트 규모가 너무 컸습니다. 코딩도 문제였지만, 수많은 카드들의 일러스트를 다 채우는 것이 가장 힘들었습니다. 그림을 배우지 않았던 제가 직접 그림을 배워서 그리기도 했고, 중간에 군대에서도 카드에 쓸 일러스트를 그렸죠. 오랫만에 옛날 그림 보니 부끄럽네요.(△ 전공자는 아니지만, 어떻게든 배워서 그린 카드 일러스트들.) 그러고보니 군대는 테스트 플레이할 인원이 많아서 보드게임 개발하기 아주 좋은 장소입니다. 보드게임의 가장 큰 문제인 같이 할 사람 모으기가 진짜 쉽습니다. 작지만 제가 만든 보드게임으로 대회도 열었고요. 우승자에게는 상품도 수여했습니다. 중간에 경제적인 문제도 있고, 대학생으로 구성된 아마추어 팀이 담당하기에는 너무 큰 프로젝트였기 때문에 정말 오랜 시간을 투자했지만, 결국 프로젝트는 좌초되고 팀은 해산됩니다. 돌이켜보면 현실적으로 스팀용 싱글 게임으로 처음 방향을 잡았어야 했습니다. 그 때는 몰랐네요. 도와준 팀원들에게 미안한 마음 뿐입니다.(△ 그때는 왜 몰랐을까.) (△ 대박난 스팀 싱글게임. 발라트로. 갓겜입니다.) 모바일 게임화 프로젝트는 좌초되었지만, 저는 포기하지 않았습니다. 제가 만든 게임이 너무 재밌었거든요. 현실의 벽에 막혀 라이브 서비스 PVP 카드 게임이 안된다면, 오프라인 보드게임으로 방향을 바꾸어 출시해야겠다. 다시 결심합니다. 원래도 보드게임을 좋아해서 출발했으니, 10년을 돌고돌아 다시 원점으로 돌아온 셈이지요. 이사하고 처음 횡했던 책장은 보드게임이 점점 늘어서 가득차게 되었고, 모바일용으로 계획한 게임의 밸런스, 효과 등을 보드게임용으로 다듬는 작업을 계속 진행합니다.(△ 만화책과 보드게임은 가만히 두면 증식합니다.)(지금은 조금 뒤쳐진 느낌은 있지만, 덱빌딩의 시초인 도미니언은 위대한 게임이죠. 듄 임페리움, 후루요니, 캐스캐디아를 가장 좋아합니다.) 제일 큰 문제였던 일러스트는 죄송하지만 AI의 힘을 빌려서 해결했습니다. 2명이서 수많은 카드의 일러스트를 다 해결하기에는 문제가 많았고. 위에 그림 보시면 아시겠지만, 제 그림 실력이 많이 안 늘어서ㅠㅠ 대안이 없었습니다. 그래도 최대한 통일성있고, 자연스럽고 이쁜 그림으로 시간 많이 써서 뽑고, 어색한 부분은 리터치해서 해결하고 있습니다. AI 일러스트 안좋게 보시는 분들이 있다는 사실 무겁게 인식하고 있습니다. 게임이 잘 되서 성공한다면, 새로 만드는 카드들은 외주로 해결하거나, 아트담당 직원을 고용해서 해결하겠습니다. 2인 팀이 만드는 게임이니 넓은 마음으로 양해 부탁드립니다. 카드 디자인도 여러번 바뀌었고, 디지털에 맞춰진 게임 룰도 오프라인에서 알아보기 편하게 다듬었습니다.(△ 카드 발전사. 초창기에는 내부 테스트용으로 다른 게임 일러스트를 사용했습니다. 사랑해요. 판타지 마스터즈.) 보드게임 컴포넌트는 평소에 3D 프린터에 관심이 많던 친구가 도움을 줘서. 집에서 직접 출력해서 해결할 수 있게 되었습니다. 모델링도 배우고, 출력도 하고, 시행착오도 격으면서 작업했습니다. 제가 직접 작업하기 때문에 비용도 크게 안들고 만들고 싶은 걸 바로바로 시험해본다는 장점이 있네요.(△ 제 작업용 컴퓨터 왼쪽에는 오벨리스크의 거신병이, 오른쪽에는 메지로 맥퀸이 있습니다.컴포넌트는 아래 자석이 붙어 있습니다.) 길고 긴 시간이 흘러 나름 만족할만한 비주얼과 보드게임으로서 완성도가 갖춰졌다고 생각합니다. 드디어 제가 만든 보드게임을 선보일 수 있게 되어서 진심으로 기쁩니다. 이번에 펀딩 페이지 만들면서 애프터 이팩트도 써본적 없었는데, 제로부터 공부했습니다. 요즘 유튜브에 좋은 영상 많더라고요. 펀딩에 나온 영상도 인터넷과 책 찾아보면서 제가 한땀한땀 만든 겁니다. 문외한이 처음 만든 영상 치고는 썩 괜찮다고 홀로 만족하고 있습니다.ㅎㅎhttps://youtu.be/HSJVH2h-NZ0(△ 진짜 개고생이었습니다.ㅠㅠ 제가 돈만 많았으면 다 외주 줬을텐데요.) 결국 게임 시스템, 아트 디자인, 3D 모델링 및 3D 프린터 출력, 영상 제작 등 모르는 내용 혼자 공부하면서 북치고 장구치고 똥꼬쇼 하고 있습니다. 주저리주저리 일기처럼 개발기를 써보았는데 재밌으셨을지요? 고향 내려가시는 길에, 올라오시는 길에 시간 때우는데 조금이나마 도움이 되었으면 좋겠습니다. 혹시 더 궁금한 부분 있으시다면 텀블벅 펀딩 링크타고 가시면 좀 더 자세한 내용 있습니다.https://tumblbug.com/ninthland 텀블벅 - 크리에이터를 위한 크라우드펀딩 텀블벅 - 크리에이터를 위한 크라우드펀딩tumblbug.com 추운데 감기 조심하시고, 설 연휴 행복한 일만 가득하길 기원합니다.
작성자 : 미플고정닉
벤 톰슨 stratechery DeepSeek 분석
사건의 발단은 워싱턴이 2023년 중국이 7나노를 만들어내는 것을 보고 과하게 경기를 일으킨 것부터 시작된다. 2023년 9월 화웨이가 SMIC를 통해 만든 7나노가 탑재된 Mate 60 Pro를 발표했을 때, 그 칩을 자세히 들여다보면 놀라운 일은 아니었는데 말이다.이미 그로부터 1년 전, SMIC는 7나노를 만들었었고 타사들도 다 만들 수 있음에도 수율이 안나와서 안만들었을 뿐인 사건인데 말이다. 오히려 놀라웠던건 워싱턴 DC의 반응이었고 그때부터 미국은 칩 판매를 허가기반으로 바꿔버린 것이다. DeepSeek 사건도 이때와 비슷하게 흘러가고 있다.사실 이번 훈련비용 절감 관련한 사실은 R1 모델이 아니라 지난 크리스마스에 공개된 V3 논문에서 드러났었다.https://github.com/deepseek-ai/DeepSeek-V3/blob/main/DeepSeek_V3.pdf그들은 V3모델 이전의 V2에서 DeepSeekMoE, DeepSeekMLA를 소개했었는데, 이 성과가 V3에서부터 나기 시작했다.우선 DeepSeekMoE는 MoE, Mixture of Experts 전문가 혼합이라는 뜻인데 GPT-3.5 같은 모델은 훈련시든 추론시든 어떤 토큰이 모델로 들어오면 전체를 활성화시키는데 반해, MoE는 특정 주제에 맞는 전문가만 활성화시킨다. (**물론 이것이 잘 발동하려면 게이트가 토큰의 종류를 적절히 판별해 알맞는 전문가에 보내도록 해야한다. 사전학습시 Dense 모델처럼 토큰마다 모든 GPU를 사용하지 않으니 Sparse할 것이고 연산량과 GPU타임이 줄 수 밖에 없다. 하지만 최근 트렌드는 거의 모든 훈련모델들이 MoE를 사용하고 있기 때문에 이것 때문에 효율성이 특출나졌다는 것은 불가능한 이야기다.)이어서 DeepSeekMLA는 추론에서의 제한사항을 혁신해주었다. 어마어마한 양의 메모리 사용량을 줄여준 것이다. 기존에는 모델 전체를 메모리에 로드하고 긴 컨텍스트 윈도우의 토큰 모두를 Key, Value 값으로 저장해야했는데 이런식은 Key-Value 값이 기하급수적으로 늘어서 비용이 늘 수 밖에 없는 것이다. 메모리 부담도 매우 커지고. 하지만 MLA, Multi-head latent attention을 통해 key-value 저장을 압축시켜서 추론시 필요한 메모리를 크게 줄였다.여기에 V3에서 통신오버헤드를 줄이는 로드 밸런싱 방식과 훈련단계에서 여러 토큰을 동시에 예측하도록(multi-token prediction)하는 기법이 추가된 것이다. 그 결과 훈련 효율이 크게 향상되어 H800 GPU 타임이 2,788K로 전체 비용이 557.6만 달러가 나온 것이다. (**라마 훈련비용에 비해 3%)Q: 그건 아무리 봐도 너무 낮은 것 아닌가? A: 최종 훈련단계에서의 비용만 계산한 것이다. 그외 모든 비용은 제외시킨 것이다. V3 논문 자체에도 이런 표현이 명시되어 있다.- 모델구조, 알고리즘, 데이터, 사전 연구, 비교실험 등에 사용된 비용은 포함하지 않았다.즉, 이번 DeepSeek 사건을 재현하려면 3%보다 훨씬 더 큰 돈이 든다는 말이다. 하지만 "최종 훈련" 자체만 보면 그 비용은 말이 된다.Q: 알렉산드르 왕이 한 H100 5만개 이야기는 뭔가?A: 아마 그는 Dylan Patel이 2024년 11월에 한 트윗을 본 것이 아닐까 추측한다. 당시 파텔은 DeepSeek이 호퍼 5만개분을 가지고 있을 것이라는 분석을 내놓았다. 사실 H800은 H100에서 메모리 대역폭을 크게 줄인 버전이다. 중요한 점은 DeepSeek은 그 GPU간의 통신에서 제한이 걸렸기 때문에 이런 연구를 시작했고 거기서 성과를 냈다는 것이다. H800 각 칩에서 132개 프로세싱 유닛 중 20개를 통신 전담으로 할당했다는 것은 쿠다로는 불가능하다. PTX라는 저수준 GPU 명령어집합까지 내려가야만 가능한 일이다. 이정도로 미친수준의 최적화까지 집착했다는 것은 오히려 H100이 아니라 H800에서 훈련을 해내겠다는 집념을 보인 셈이다. 또 지금처럼 추론 서비스를 실제 제공하고 있으려면 상당량의 GPU가 확보되어야만 가능한 일이다. 어마어마한 양의 GPU가 필요하다.(**아마 호퍼 5만개 이상은 확보했을 것이라는 추측이며 최근 일론 머스크도 여기에 동의했다.)Q: 그럼 칩 규제 위반 아닌가?A: 아니다. H100은 막았어도 H800은 막지 않았기 때문이다. 다들 프론티어 모델을 개발하려면 칩간 대역폭이 중요할 것이라 추측했는데 DeepSeek은 그 한계를 극복하도록 모델 구조와 인프라를 최적화시킨 셈이다. 만약 H100 수출규제가 없었다면 더 쉽게 클러스터를 구축하고 모델을 만들어냈을 것이다.Q: 그럼 V3가 (base에서의) 프론티어 모델이란 말인가?A: 적어도 4o, Sonnet-3.5 와 비빌 수준임은 확실해보이고 라마보다는 훨씬 더 위다. 다만 DeepSeek은 4o, 소넷을 디스틸(distill)해서 훈련용 토큰을 만들어냈을 확률이 아주 높아보인다.Q: 디스틸레이션(distillation)이 뭔가?A: 디스틸레이션은 다른 모델의 이해를 추출하는 방법이다. 선생 모델에서 다양한 입력을 넣고 만들어진 출력으로 학생 모델의 학습에 사용시키는 것이다. 각 연구소들은 이런 디스틸레이션을 명백히 금지하고 있다. 하지만 매우 흔하게, DeepSeek 외에도 수많은 곳에서 다들 하고 있다. 때문에 4o, 소넷급 모델들이 계속해서 나오고 있는 것이다. 솔직히 안했을리가 없다고 생각될 정도로 흔한 방법이다.Q: 그럼 1등 모델들은 불리한 것 아닌가?A: 맞다. 앞서가는 연구소들은 가장자리를 넓히는데에 이런 방식은 사용할 수 없다. 대신에 자사 모델 최적화에는 사용할 수 있는 정도다. 부정적인 면은, 이런식으로 디스틸하게 되면 타 연구소들이 계속해서 무임승차하는 것이 가능해진다는 이야기다. 최첨단 모델을 개발하는데 드는 비용은 오직 프론티어 랩들만이 떠안게 된다. 그 결과, 리딩 엣지(leading edge) 모델들에 어마어마한 돈이 들어서 개발되어도, 금방 디스틸레이션으로 카피해서 들어간 돈이 회수가 어렵게 되는 것이다. 곧바로 상품화되고 흔해지니까 말이다. 바로 이 점이 마이크로소프트와 OpenAI가 점점 더 결별하는 방향으로 나아가는 이유인 것 같다. 1천억 달러를 들여서 최신 모델을 개발해봐야, 금방 감가상각되어 흔해지면 돈을 회수할 수가 없다.Q: 이런 이유로 빅테크 주가가 떨어지고 있는 것인가?A: 장기적으로보면 추론비용이 싸지는 것은 마이크로소프트 같은 기업에 유리하다. 그들은 서비스 제공업자이기 때문이다. 아마존 역시 AWS 때문에 수혜자다.이번 사건으로 가장 큰 수혜를 보는 곳 중 하나는 애플이다. 메모리 요구량이 급격하게 줄면 애플 실리콘 같은 엣지 디바이스에서 추론이 실현 가능해지기 때문이다. 애플은 CPU, GPU, NPU가 모두 통합된 메모리를 공유한다. 즉, 애플의 고사양 칩이 곧바로 소비자용 추론 칩이 될 수 있다.엔1비디아의 게이밍 GPU VRAM은 32GB가 최대치지만 애플의 경우 128GB의 램을 사용할 수 있다.메타도 수혜자다. 그들의 비전에서 가장 큰 걸림돌이 추론 비용이었는데 이게 사전훈련 비용과 마찬가지로 매우 싸진다면 그들의 비전 역시 더욱 실현가능해질 것이다.다만 구글의 경우는 악재다. 하드웨어 요구량이 줄어들기 때문에 그들의 TPU로 누려왔던 이점이 줄어들고 추론비용이 제로에 가까워질수록 새로운 검색서비스 등이 나타나기 때문이다. 물론 구글도 자체비용을 줄일 순 있겠지만 잃는 것이 더 크다.Q: 그럼 왜 주가가 떨어지나A: 내가 말한 건 장기적 비전이고 현재는 R1으로 인한 충격이 수습되기 전이다.Q: R1은 어떤가A: R1은 추론형 모델이다. 이는 openai의 o1 신화를 두 가지 면에서 무너뜨린다. 첫째 존재 자체다. 추론에 오픈ai만의 특별한 비법이 없다는 것이다. 둘째, 가중치를 공개해버렸다는 것이다. 물론 데이터는 숨겼기 때문에 오픈소스라 일컫는 것은 무리가 있지만 말이다. 이제 굳이 OpenAI에 돈을 내지 않고도 원하는 서버나 로컬환경에서 추론모델을 돌릴 수 있게 되었다.사실 deepseek은 이번에 R1과 R1zero를 함께 공개했는데 후자가 더 중요하다고 본다.R1-zero는 인간의 피드백을 완전히 빼버렸다. 순수 RL(강화학습)이다. 이 모델에 문제를 잔뜩 주고 올바른 답을 내면 보상을 주고, 체계적인 사고과정을 보여주면 또 보상을 주는 방식으로 만들었다. 마치 알파고가 이기면 보상을 주는 보상함수를 만들었더니 모델 스스로 인간이 가르치지 않은 방식대로 서로 학습시킨 것 처럼 말이다.이를 보면 The bitter Lesson이 다시 한번 입증된 것 같다. 추론하는 방법을 일일히 가르치는 것이 아니라 충분한 연산자원과 데이터만 주면 알아서 학습한다는 것이다. Q: 그럼 결국 우린 AGI에 더 가까워진 것인가?A: 그렇게 보인다. 소프트뱅크의 마사요시가 왜 마이크로소프트가 아닌 OpenAI에 돈을 댄 것인지도 설명이 된다. 1등에 서면 엄청난 수익이 돌아올 것이라는 믿음이 있는 것이다. (** 곧 모델이 알아서 똑똑해지기 시작할 것이기 때문)Q: 그럼 R1이 선두에 선 것인가?A: 그렇다고 보긴 어렵다. 여러 정황 상 R1은 o1-pro를 디스틸레이션한 것으로 보인다. OpenAI는 이미 o3를 선보였다. DeepSeek은 확실히 효율성에서 선두를 차지했지만 그게 최고의 모델이라는 의미는 아니다.(** 뿐만 아니라 o1-mini도 R1 671B 디스틸에 사용된 정황으로 보이는 케이스도 속속 드러났다. https://x.com/JJitsev/status/1883158764863537336)Q: 그럼 왜 이렇게 다들 호들갑인건가?A: 세 가지 요인 때문이다. 1. 중국은 미국보다 많이 뒤쳐져있다 는 인식이 틀렸기 때문에 사람들이 충격받는 것이다. 중국의 소프트웨어 역량은 매우 높은 수준임이 드러났다.2. V3의 낮은 훈련비용, R1의 낮은 추론 비용 때문이다. 계산상으로는 가능한 수치였기 때문에 NVDA에 대한 우려가 커진 것이다.3. DeepSeek이 칩 규제라는 벽을 뚫고 이 성과를 이뤄냈기 때문이다. 현재까지는 어쨌든 합법적으로 구한 H800으로 훈련한 것으로 보이긴 하지만 허점이 많다.Q: 난 NVDA 갖고 있는데 망한건가?A: NVDA 해자가 2개 있었다.1. 쿠다2. 여러 GPU를 하나로 묶어 가상의 거대한 GPU로 만들어내는 기술 - 이 능력은 그 회사만의 독보적인 영역이었다.이 둘은 서로를 더욱 강화시켜주는 것이었는데 약한 하드웨어와 낮은 대역폭으로도 극단적인 최적화가 가능하다는 것이 증명되었기 때문에 NVDA는 새로운 스토리들이 더 필요하게 되었다.다만 아직 유리한 점이 3가지 있다.1. DeepSeek의 접근방식을 오히려 H100이나 GB100 같은 최신식 칩에 사용하게 된다면 얼마나 더 강력해질까? 더 효율적인 컴퓨팅이 가능해진다 하더라도 더 많은 컴퓨팅은 여전히 유효하다.2. 추론 비용이 낮아지면 -> 오히려 모델 사용량이 더 늘어나는 측면이 있다.(** 사티아 나델라는 간밤에 제본스의 역설을 언급하며 AI가 점점 더 싸지고 접근가능성이 높아진다면 사용량이 더 크게 오를 것이라고 언질을 주었다.)(** 제본스의 역설이란 단일 비용이 A에서 B로 싸진다면 사용량이 C에서 D로 늘어나기 때문에 전체 사용량은 오히려 늘어남을 지적하는 것이다.)3. R1이나 o1같은 추론모델들은 더 많은 컴퓨팅을 사용할수록 더 똑똑해진다. 인공지능의 성능을 높이는 방법이 여전히 컴퓨팅에 달려있다면 여전히 NVDA가 수혜를 볼 가능성이 있다.하지만 장밋빛 전망만 있는 것은 아니다.DeepSeek의 효율성과 오픈웨이트로 인한 광범위한 공개는 NVDA의 단기적인 낙관적 성공스토리에 물음표를 달아버렸다.특히. 추론단계에서는 NVDA 칩 외에도 다른 대안 시나리오가 작동하기 시작했다.예를 들어 AMD 칩 하나로도 추론이 가능해진다면 칩간 대역폭이 낮다는 AMD 측의 단점을 상쇄할 수 있게 된다.추론 전용칩이 각광을 받을 수도 있다.요약하자면 NVDA가 사라지진 않을 것이다. 다만 지금까지 고려되지 않았던 불확실성에 노출되었고 이는 하방압력을 키울 수 밖에 없다.Q: 칩 규제는 어떻게 되는건가?A: 칩규제가 더 중요해졌다고 주장할 수도 있겠지만. 2023년의 백악관의 규제가 DeepSeek을 부추긴 것이라고도 볼 수 있기 때문에 단기적으로는 효과가 있더라도 장기적으로는 의문이다.Q: 그럼 왜 중국은 오픈소스를 하는건가?A: 중국이 아니라 DeepSeek이 그렇게 하는거다. CEO 량원펑은 오픈소스야말로 인재를 끌어들이는 핵심이라고 언급했다. Q: 그럼 OpenAI는 망한건가?A: 그렇다고 볼 순 없다. 결국은 AI Take-off에 가장 먼저 도달한 자가 승리한다. 반면 이번 주말의 가장 큰 패배자는 앤트로픽이다. DeepSeek이 앱스토어 1위를 차지하기까지 샌프란시스코 지역 외에서 클로드는 주목조차 끌지 못했다. API가 그나마 잘돌아간다고 어필하지만, DeepSeek 같은 방식대로 디스틸로 프론티어모델이 흔하게 퍼져버리면 가장 먼저 무너지는 쪽이 이 API 비즈니스다. 돈주고 API 쓰느니 성능이 비슷하다면 DeepSeek 같은 오픈웨이트 모델을 쓰기 때문이다.결국 가장 큰 수혜자는 소비자와 기업들이다. 이런 미래는 사실상 무료에 가까운 AI 제품과 서비스를 누릴 수 있게 될 것이기 때문이다. 중국은 이제 자신감이 점점 더 커질 것이다.미국은 선택의 기로에 놓여있다. 더 강경하게 나아갈 것인가, 아니면 더 큰 혁신으로 나아갈 것인가. 연구소들이 이제 로비에 신경쓰지 않고 혁신에만 집중하게된다면, 우린 DeepSeek에게 감사하게 될지도 모른다.
작성자 : KurisuMakise고정닉
차단하기
설정을 통해 게시물을 걸러서 볼 수 있습니다.
댓글 영역
획득법
① NFT 발행
작성한 게시물을 NFT로 발행하면 일주일 동안 사용할 수 있습니다. (최초 1회)
② NFT 구매
다른 이용자의 NFT를 구매하면 한 달 동안 사용할 수 있습니다. (구매 시마다 갱신)
사용법
디시콘에서지갑연결시 바로 사용 가능합니다.