요즘 반도체 업계에서 가장 뜨거운 키워드는 '탈엔비디아(De-NVIDIA)'입니다. 메타, 구글, 마이크로소프트, 아마존 등 글로벌 빅테크 기업들이 엔비디아 GPU에 대한 의존도를 낮추고 자체 AI 칩 개발에 사활을 걸고 있는데요. 그 규모가 어마어마합니다. MS는 2026년 1월 자체 AI 추론 칩 '마이아 200(Maia 200)'을 공개했고, 아마존과 구글도 차세대 자체 칩을 잇달아 선보이고 있어요. 메타는 자체 AI 칩 'MTIA' 시리즈를 공개한 데 이어, AMD와 143조 원 규모의 초대형 계약을 체결하며 AI 반도체 확보에 총력을 기울이고 있습니다. 10년 차 블로거로서 직접 데이터를 모아 분석해본 결과, 이 흐름은 일시적인 유행이 아니라 AI 시장의 구조적 변화라는 확신이 들었어요. 오늘은 빅테크의 자체 AI 칩 현황과 이것이 반도체 시장에 미치는 영향, 그리고 우리나라 투자자들이 주목해야 할 포인트를 하나씩 파헤쳐볼게요.
1. MS의 반격, 마이아 200…성능 대비 가격 30% 개선
2026년 1월 27일, 마이크로소프트가 자체 개발한 AI 추론 전용 칩 '마이아 200'을 공개했어요. TSMC의 3나노 공정으로 제작된 이 칩은 칩 하나에 1,400억 개 이상의 트랜지스터를 집적했으며, 초당 7TB 대역폭의 216GB HBM3e 메모리 시스템을 탑재하고 있어요.
MS가 가장 강조한 건 성능 대비 가격이에요. 같은 가격대의 현 세대 장비 대비 달러당 성능(performance per dollar)이 30% 개선됐다고 발표했는데, 이는 AWS나 구글의 자체 칩보다도 우위에 있다는 뜻이죠. 실제로 마이아 200의 경량 연산(FP4) 성능은 아마존의 자체 칩 '트레이니엄' 3세대보다 3배 뛰어나며, 구글의 7세대 TPU보다도 8비트(FP8) 기준으로 우위를 점한다는 게 MS의 설명이에요. 기존 엔비디아 의존도에서 벗어나려는 MS의 강력한 의지가 느껴지는 대목이죠.
2. 구글·아마존의 자체 칩, 가성비로 무장하다
구글은 이미 2015년부터 자체 AI 칩 TPU(Tensor Processing Unit)를 운영해왔는데, 7세대 TPU '아이언우드(Ironwood)'는 단일 칩 FP8 기준 4,614 TFLOPS의 성능을 낸다고 알려져 있어요. 특히 구글은 최근 TPU를 외부에 판매하는 전략을 본격화하며 생태계 확장에 나서고 있어요. 메타를 첫 주요 고객으로 확보했다는 소식도 전해집니다.
아마존은 훈련용 '트레이니엄(Trainium)'과 추론용 '인퍼런시아(Inferentia)' 두 가지 라인을 운영 중이에요. 트레이니엄3 UltraServer는 전작 대비 4.4배 높은 컴퓨팅 성능, 4배의 메모리 대역폭, 40% 향상된 에너지 효율을 자랑하며, 엔비디아 GPU 대비 최대 50%의 원가 절감 효과를 낼 수 있다고 해요.
| 마이크로소프트 | 마이아 200 | TSMC 3나노, 1,400억 트랜지스터, 216GB HBM3e | FP4 기준 트레이니엄 3세대 대비 3배 성능, 달러당 성능 30% 개선 |
| 구글 | TPU v7 (Ironwood) | 7세대 TPU, 메타 첫 외부 고객 확보 | 단일 칩 FP8 기준 4,614 TFLOPS |
| 아마존 | 트레이니엄3 | 40% 에너지 효율 개선, 엔비디아 대비 최대 50% 원가 절감 | 전작 대비 4.4배 컴퓨팅 성능, 4배 메모리 대역폭 |
| 메타 | MTIA 400·450·500 | 2027년까지 배치 예정, HBM 대역폭 대폭 확대 | MTIA 300: 216GB HBM 탑재 |
표1: 주요 빅테크의 자체 AI 칩 현황 (2026년 4월 기준)
3. 빅테크의 AI 투자, 1,000조 원 시대가 열렸다
이런 자체 칩 개발은 막대한 자본 투자 없이는 불가능해요. 글로벌 빅테크 4사(아마존, 알파벳, MS, 메타)의 2026년 AI 인프라 자본 지출(CAPEX) 합계는 약 6,500억 달러, 우리 돈으로 약 940조 원에 달할 것으로 전망됩니다. 이는 우리나라 올해 예산(약 728조 원)을 훌쩍 뛰어넘는 규모예요.
기업별로 보면, 아마존이 최대 2,000억 달러로 가장 많고, 알파벳(구글)이 최대 1,850억 달러, MS가 최대 1,450억 달러, 메타가 최대 1,350억 달러를 각각 투자할 계획이에요. 메타는 여기에 더해 AMD와 무려 1,000억 달러(약 143조 원) 규모의 AI 칩 공급 계약을 체결하며, 엔비디아·AMD·자체 칩을 모두 활용하는 '투트랙' 전략을 구사하고 있어요.
4. TSMC의 공급 병목, 삼성 파운드리엔 '기회'
빅테크들의 자체 AI 칩 생산은 결국 파운드리(반도체 위탁 생산) 시장으로 귀결됩니다. 그런데 여기에 변수가 생겼어요. TSMC의 선단 공정 물량이 2028년까지 사실상 완판됐다는 소식이 들려온 거예요. TSMC에 주문이 폭주하면서 공급 병목이 심화되자, 빅테크들의 시선이 자연스럽게 삼성전자 파운드리로 향하고 있어요.
Arm은 최근 AI 데이터센터용 중앙처리장치(CPU)를 삼성 파운드리를 통해 생산하는 방안을 검토 중이라고 밝혔고, AMD도 차세대 반도체 파운드리 협력 방안을 논의하기로 했어요. 엔비디아의 차세대 추론형 AI 칩 '그록3' 생산도 삼성 파운드리의 4나노 공정에서 맡고 있고, 테슬라의 자율주행 칩 'AI6'도 삼성으로 수주가 이어졌습니다.
DS투자증권 이수림 연구원은 "빅테크 업체들의 주문형반도체(ASIC) 출하가 본격화되는 가운데 TSMC 선단공정 공급 부족이 지속되며 삼성 파운드리로의 수요 이전이 가시화되고 있다"고 분석했어요. 특히 메타의 MTIA 칩에도 삼성전자의 2나노 공정(SF2) 도입 가능성이 꾸준히 제기되고 있는데, 이는 삼성 파운드리의 기술력을 어필하는 중요한 신호예요.
5. '승자는 HBM'…한국 반도체의 절호의 기회
빅테크들이 자체 AI 칩을 만들든, 엔비디아나 AMD의 칩을 쓰든, 변하지 않는 사실이 하나 있어요. 바로 AI 연산에 필수적인 HBM(고대역폭메모리) 없이는 아무것도 할 수 없다는 점이에요.
마이크로소프트의 마이아 200에도 216GB의 HBM3e가 탑재되었고, 메타의 MTIA 300에도 같은 용량의 HBM이 들어갔어요. 아마존의 트레이니엄3도 HBM 사용량을 크게 늘렸고, 구글의 TPU도 차세대 모델로 갈수록 메모리 대역폭을 확대하고 있어요. 삼성전자는 2026년 한 해에만 110조 원을 AI 반도체 역량 강화에 투자하며 HBM4 세계 최초 양산에 성공했고, SK하이닉스도 HBM 시장에서 독보적인 기술력을 인정받고 있어요.
| MS 마이아 200 | 216GB HBM3e 탑재 | SK하이닉스 HBM3e 공급 |
| 메타 MTIA 300 | 216GB HBM 탑재 | 삼성·SK 수혜 전망 |
| 아마존 트레이니엄3 | 전작 대비 4배 메모리 대역폭 | HBM 수요 확대 |
| 구글 TPU v7 | 고대역폭 메모리 아키텍처 | 차세대 HBM 채택 가능성 |
표2: 빅테크 자체 칩의 HBM 탑재 현황과 한국 기업 영향
카운터포인트리서치는 2026년 HBM 시장 규모가 약 530억 달러에서 2027년 800억 달러까지 성장할 것으로 전망했고, 삼성전자는 2026년 HBM 매출이 2025년 대비 3배 이상 늘 수 있다고 밝혔어요. 누가 AI 칩 전쟁에서 승자가 되든, HBM을 만드는 한국 반도체 기업들은 그 혜택을 고스란히 누릴 수밖에 없는 구조인 거예요.
빅테크들의 자체 AI 칩 개발 움직임은 '엔비디아 독점 체제의 종말'이 아니라, AI 반도체 시장의 '투트랙' 전환이라고 봅니다. 훈련(Training) 영역에서는 여전히 엔비디아 GPU의 독보적 위치가 이어지겠지만, 추론(Inference) 영역에서는 메타·MS·구글·아마존의 자체 칩과 AMD, 브로드컴 등 다양한 플레이어들이 치열하게 경쟁할 거예요. 중요한 건 이런 구조적 변화 속에서도 HBM 수요는 계속 증가하고, 파운드리 시장은 삼성이라는 대안을 찾게 된다는 점이에요. 그래서 저는 개인적으로 이 흐름이 한국 반도체 산업에는 오히려 장기적 호재라고 판단하고 있어요. 다만 빅테크들의 투자 속도가 예상보다 더 빨라지면 일시적 공급 과잉 우려도 있을 수 있으니, 너무 단기적인 관점에서 접근하기보다는 중장기적인 시각을 유지하는 게 중요해 보여요.
앞으로 이 블로그에서는
평범한 월급쟁이가 현실적으로 자산을 늘리는 방법과
돈의 흐름을 읽는 투자 이야기를 계속 나눌 예정입니다.
여러분은 어떻게 생각하시나요?
댓글로 의견을 나눠주시면
함께 이야기해 보고 싶습니다.