Codex 슈퍼앱·Anthropic 1,000억 달러 딜

🤖 AI 뉴스·서비스
Anthropic·OpenAI, 인프라 전쟁 격화
💡 핵심: Anthropic이 AWS에 10년간 1,000억 달러 약속 — AI 역사상 최대 규모 클라우드 계약

Anthropic이 Amazon AWS와 맺은 새 협약에서 향후 10년간 1,000억 달러 이상을 AWS 기술에 투자하고 최대 5GW의 컴퓨팅 파워를 확보하기로 했습니다. Amazon은 이에 화답해 즉시 50억 달러를 추가 투자했습니다. Anthropic의 연 환산 매출은 2025년 말 90억 달러에서 현재 300억 달러를 돌파했는데, 이 폭발적 성장이 인프라 병목을 만들며 이번 딜로 이어졌습니다. 한편 OpenAI는 Hyatt 호텔그룹에 ChatGPT Enterprise와 Codex를 전사 배포하는 등 기업 AI 도입 사례를 빠르게 쌓고 있습니다. Google DeepMind는 Gemma 4(Apache 2.0 오픈 라이선스)와 Gemini Robotics ER 1.6을 동시에 공개하며 오픈 모델과 로봇 AI 두 전선에서 모두 공세를 펼치고 있습니다.

👉 이렇게 써봐: AI 인프라 전쟁이 곧 서비스 품질과 가격 경쟁으로 이어집니다. 6개월 안에 기업용 Claude·Codex 도입 비용이 낮아지거나 성능이 대폭 오를 가능성이 높으니, 지금 파일럿 프로그램을 신청해두는 것이 유리합니다.
🔗 자세히 보기
🛠️ 개발자 도구
OpenAI Codex, 코딩 넘어 맥 전체 제어
💡 핵심: 주간 사용자 300만 명 — 코드 에이전트에서 데스크톱 전체를 움직이는 'AI 부조종사'로 진화

4월 16일 OpenAI가 Codex 앱에 '컴퓨터 사용(Computer Use)' 기능을 추가했습니다. 이제 Codex는 macOS 위의 모든 앱을 보고, 클릭하고, 타이핑할 수 있습니다 — 그것도 사용자가 다른 앱에서 일하는 동안 백그라운드에서요. 같은 업데이트로 인앱 브라우저(프론트엔드 디자인에 직접 코멘트 가능), 이미지 생성(gpt-image-1.5), 90개 이상의 플러그인(Jira·Slack·GitLab·Microsoft Suite 등), 그리고 메모리 기능(이전 대화 맥락 기억)까지 한꺼번에 추가됐습니다. ChatGPT Business·Enterprise 내 Codex 사용자는 2026년 1월~4월 사이 6배 증가했으며, Harvey 법률 AI는 Codex 도입 후 초기 개발 반복 시간이 30~50% 단축됐다고 밝혔습니다.

🎯 실전 활용: 프론트엔드 개발 중 'Slack·Gmail·Notion 확인하고 오늘 내가 봐야 할 것 정리해줘' 한 문장으로 여러 앱을 동시에 뒤지는 에이전트를 실행하거나, 브라우저에서 디자인 시안에 직접 코멘트를 달아 Codex가 즉시 코드로 반영하게 할 수 있습니다.
👉 이렇게 써봐: ChatGPT Plus($20/월) 이상이면 지금 바로 Codex 앱을 macOS·Windows에서 다운로드해 쓸 수 있습니다. 컴퓨터 사용 기능은 macOS 전용(한국 포함 대부분 지역 사용 가능)이며, Settings > Computer Use에서 플러그인 설치 후 Screen Recording 권한을 부여하면 시작됩니다.
🔗 자세히 보기
🔓 오픈소스 실전
Gemma 4 — 내 맥북에서 돌리는 최강 오픈 모델
💡 핵심: 출시 3주 만에 커뮤니티 폭발적 반응 — 31B 모델이 Arena AI 오픈 모델 랭킹 3위

Google DeepMind가 4월 2일 출시한 Gemma 4는 Apache 2.0 라이선스(상업적 무제한 사용 가능)의 오픈 웨이트 모델로, E2B(2B)·E4B(4B)·26B MoE·31B Dense 네 가지 크기로 제공됩니다. 31B 모델은 AIME 2026 수학 벤치마크에서 89.2%, 코드 경쟁력 지표인 Codeforces ELO는 전 세대 Gemma 3의 110에서 2150으로 수직 상승했습니다 — 한 세대 만에 '전문 경쟁 프로그래머' 수준으로 도약한 것입니다. 멀티모달(텍스트·이미지·비디오 처리)에 256K 토큰 컨텍스트, 140개 이상 언어를 지원하며, Ollama를 통해 단 한 줄 명령어로 로컬에서 실행됩니다. 특히 26B MoE는 추론 시 실제로 활성화되는 파라미터가 3.8B에 불과해, 소비자급 GPU에서도 전체 26B의 품질을 거의 그대로 누릴 수 있습니다.

💻 요구 사양: E4B(권장 시작점): RAM 8GB 이상, GPU 불필요(CPU 실행 가능), macOS·Windows·Linux 모두 지원 / 26B MoE: RAM 16GB 이상(Apple Silicon 통합 메모리 기준) / 31B Dense: RAM 24GB 이상 또는 RTX 4090급 GPU
설치·시작: 1) Ollama 설치: https://ollama.com/download 에서 OS별 설치 후 2) 터미널에서 `ollama run gemma4:e4b` 실행 — 약 9.6GB 다운로드 후 즉시 대화 가능. Apple Silicon은 MLX 가속 자동 적용(Ollama v0.19 이상).
👉 이렇게 써봐: Ollama가 로컬에서 OpenAI API 호환 엔드포인트(`http://localhost:11434/v1`)를 열어주므로, Cursor·Continue·Claude Code CLI 등 기존 AI 코딩 도구를 API 키 없이 무료로 Gemma 4에 연결해 개인 프라이빗 코딩 어시스턴트로 활용할 수 있습니다.
🔗 자세히 보기
오늘의 AI 트렌드
오늘 세 소식을 관통하는 흐름은 'AI의 경계가 채팅창에서 로컬 머신 전체로 확장된다'는 것입니다. Codex는 데스크톱 전체를 제어하고, Gemma 4는 클라우드 없이 내 PC에서 동급 최강 추론을 실행하며, Anthropic은 1,000억 달러 인프라를 확보해 이 모든 흐름의 연산 기반을 다집니다 — AI가 '도구'에서 '환경' 자체로 바뀌고 있습니다.

댓글

이 블로그의 인기 게시물

반도체·플랜트·광반도체·배터리소재 동시 점화

트럼프 이란 강공에 코스피 패닉, 인버스·해운·알루미늄 폭발

호르무즈 봉쇄·스테이블코인·나이키의 3중 충격