엔비디아의 GPU를 대체할 자체 칩을 만들겠다는 빅테크들의 움직임, 한 번쯤은 들어보셨죠? 그런데 이번에는 'M7 프로젝트'라는 코드명으로 메타가 본격적으로 움직이고 있어요. 사실 M7이라는 이름보다는 MTIA(Meta Training and Inference Accelerator) 라는 공식 명칭으로 4종의 자체 AI 칩을 이미 공개했답니다. 제가 이번 GTC 2026 이후에 관련 자료를 쭉 살펴보면서 느낀 건, 더 이상 '빅테크의 자체 칩'이 먼 미래 이야기가 아니라는 점이었어요. 특히 추론(Inference) 영역에서는 엔비디아 GPU가 아닌 다른 칩들이 빠르게 자리 잡고 있더라고요. 10년 차 블로거로서 지금부터 그 이유와 함께 메타의 자체 칩 전략, 그리고 이게 한국 반도체 시장에 어떤 의미인지 하나씩 풀어볼게요.
1. 메타의 MTIA, M7 프로젝트의 정체는?
메타가 최근 공개한 자체 AI 칩은 총 4종으로, MTIA 300·400·450·500으로 구성되어 있어요. 이 칩들은 모두 메타가 직접 설계하고 대만 TSMC가 생산하는 구조입니다. 흥미로운 점은 개발 주기인데요, 약 6개월 간격으로 새로운 칩을 데이터센터에 배치할 계획이라고 해요.
YJ 송 메타 엔지니어링 부사장은 "단일 설계에 장기적으로 베팅하기보다 반복해서 개선하기로 했다"며 이 짧은 개발 주기의 배경을 설명했어요. 이게 바로 'M7 프로젝트'의 핵심 철학이라고 볼 수 있겠네요. '한 번에 완벽하게'보다는 '자주 개선하며 빠르게 진화'하는 전략인 거예요.
| MTIA 300 | 추천 모델 학습 | 이미 배치 완료 | 콘텐츠·광고 추천 최적화 |
| MTIA 400 | 생성형 AI 지원 | 테스트 완료, 배치 예정 | '아이리스' 코드명 |
| MTIA 450 | AI 추론 | 2026~2027년 배치 | HBM 대역폭 대폭 확대 |
| MTIA 500 | AI 추론 | 2026~2027년 배치 | HBM 대역폭 대폭 확대 |
표1: 메타 MTIA 자체 AI 칩 4종 현황 (출처: 메타 블로그, CNBC, 연합뉴스 취합)
2. 왜 빅테크들은 '탈엔비디아'에 사활을 걸까?
사실 메타만 이러는 게 아니에요. 구글은 이미 2015년부터 TPU(Tensor Processing Unit) 라는 자체 AI 칩을 운영 중이고, 아마존은 트레이니엄(Trainium) 과 인퍼런티아(Inferentia) 를, MS는 올해 1월 '마이아 200(Maia 200)' 을 공개했어요. 애플도 M 시리즈 칩으로 온디바이스 AI를 강화하고 있고요.
이렇게 빅테크들이 자체 칩 개발에 뛰어드는 이유는 크게 세 가지로 정리할 수 있을 것 같아요.
첫째, 비용 문제예요. 엔비디아의 H100이나 B200 같은 GPU는 천문학적인 가격에다 구하기도 어렵죠. 자체 칩을 쓰면 장기적으로 인프라 구축 비용을 수십조 원씩 아낄 수 있다는 계산이에요.
둘째, 성능 최적화예요. 범용 칩인 GPU와 달리, 자사 서비스에만 딱 맞게 설계하면 전력 대비 성능, 이른바 '전성비'를 극대화할 수 있거든요.
셋째, 협상력 강화예요. 자체 칩이라는 대안이 생기면 엔비디아나 AMD와의 가격 협상에서 훨씬 유리한 고지를 점할 수 있죠.
3. 메타의 '투 트랙' 전략이 주는 시사점
메타의 접근법은 다른 빅테크들과 비교해도 독특해요. 바로 훈련(Training)과 추론(Inference)을 완전히 분리하는 전략을 택하고 있거든요.
가장 까다로운 작업인 AI 훈련용으로는 여전히 엔비디아·AMD의 GPU 등 외부 칩을 도입하는 반면, 추론용으로는 자체 칩(MTIA)을 생산해서 효율성을 높이겠다는 계획이에요.
메타의 설명에 따르면 "주류 칩은 가장 까다로운 작업인 AI 훈련을 위해 설계돼 추론과 같은 작업에는 비용 효율성이 떨어진다"고 해요. 그래서 MTIA는 반대로 추론에 집중해서 최적화했다는 거예요.
이 '투 트랙' 전략이 주는 시사점은 명확해요. 앞으로 AI 시장은 '훈련용 GPU'와 '추론용 맞춤형 칩'으로 양분화될 가능성이 높다는 거예요. 특히 AI 패러다임이 학습에서 추론으로 빠르게 넘어가고 있다는 점을 고려하면, 메타의 이런 선택은 상당히 선견지명이 있어 보여요.
4. 이게 한국 반도체엔 호재일까? 악재일까?
여기서 한국 투자자분들이 가장 궁금해하실 부분이에요. 빅테크들의 '탈엔비디아' 움직임이 삼성전자와 SK하이닉스에 어떤 영향을 미칠까?
제가 여러 자료를 종합해본 결론은 "오히려 기회가 될 가능성이 높다" 입니다. 이유는 간단해요. 빅테크들이 아무리 자체 칩을 만든다고 해도, 고성능 AI 연산에 필수적인 HBM(고대역폭메모리) 없이는 아무것도 할 수 없기 때문이에요.
실제로 MS의 자체 AI 칩 '마이아 200'에는 SK하이닉스의 HBM이 탑재된 것으로 알려졌어요. 그리고 메타의 MTIA 로드맵에도 HBM 도입이 포함되어 있어서, 현재 사용 중인 MTIA 300에는 216GB 용량의 HBM이 탑재되며 대역폭도 크게 늘었다고 해요.
| 기존 세대 | HBM 미사용 | - |
| MTIA 300 | 216GB HBM 탑재 | 한국 메모리 기업 직접 수혜 |
| MS 마이아 200 | SK하이닉스 HBM3E | 자체 칩에도 HBM 필수 |
표2: 빅테크 자체 칩의 HBM 탑재 현황 (출처: 매일경제, 조선일보)
결국 '누가 칩을 만들든 HBM은 계속 필요하다' 는 결론이에요. 오히려 빅테크들의 자체 칩 도입이 확대될수록 HBM 수요는 더욱 증가할 거라는 게 제 판단이에요.
5. 투자자가 봐야 할 포인트: 엔비디아의 반격과 '추론' 시장
물론 엔비디아도 가만히 있지 않아요. 젠슨 황 CEO는 GTC 2026에서 차세대 AI 칩 '베라 루빈'을 공개하며 AI 산업을 단순 GPU 성능 경쟁이 아닌 '토큰을 생산하는 팩토리' 개념으로 재정의하고 있어요. 엔비디아는 칩-서버-소프트웨어-모델을 모두 수직 계열화하는 '풀스택 AI' 인프라 기업으로 진화하며 AI 시장 주도권을 절대 내놓지 않겠다는 의지예요.
투자자 입장에서 봐야 할 핵심 포인트는 이겁니다.
첫째, '훈련용'과 '추론용' 시장을 구분해서 봐야 해요. 훈련용 시장은 여전히 엔비디아의 독무대지만, 추론용 시장은 메타, 구글, MS, 아마존 등 다양한 플레이어들이 치열하게 경쟁하는 레드오션으로 변하고 있어요.
둘째, HBM 수요는 오히려 증가할 거예요. 빅테크들의 자체 칩에도 HBM은 필수 부품이기 때문에, 누가 이기든 삼성전자와 SK하이닉스는 수혜를 볼 가능성이 높아 보여요.
셋째, ASIC(주문형 반도체) 시장을 주목할 필요가 있어요. 빅테크들의 자체 칩 설계를 대신해주는 브로드컴의 존재감이 빠르게 커지고 있어요. 브로드컴의 올해 1분기 매출은 전년 대비 29% 증가했고, 매출의 64%가 반도체 부문에서 나왔다고 해요.
메타의 M7 프로젝트(MTIA)는 단순한 자체 칩 개발 이상의 의미를 갖는다고 봅니다. 이는 AI 시장이 'GPU 하나로 모든 걸 해결하던 시대'에서 '용도별 최적화 칩이 각자의 영역을 넓혀가는 시대'로 전환되고 있음을 보여주는 신호거든요. 물론 엔비디아의 아성이 쉽게 무너지진 않겠지만, 최소한 '추론' 영역에서는 경쟁 구도가 본격화되고 있어요. 중요한 건 이런 구조적 변화 속에서도 변하지 않는 가치, 즉 모든 AI 칩에 필수적으로 들어가는 HBM과 메모리 반도체의 수요라고 생각해요. 그래서 저는 개인적으로 빅테크들의 자체 칩 경쟁이 한국 반도체 산업에는 오히려 긍정적인 신호라고 판단하고 있습니다.
앞으로 이 블로그에서는
평범한 월급쟁이가 현실적으로 자산을 늘리는 방법과
돈의 흐름을 읽는 투자 이야기를 계속 나눌 예정입니다.
여러분은 어떻게 생각하시나요?
댓글로 의견을 나눠주시면
함께 이야기해 보고 싶습니다.