AI가 디자인·코드·온디바이스까지 접수

🤖 AI 뉴스·서비스
AI, 이제 디자인 영역도 접수 시작
💡 핵심: Claude Design 출시 직후 Figma 주가 7% 급락 — 디자인 툴 시장 지각변동

Anthropic이 4월 17일 'Claude Design'을 공개했습니다. 텍스트 프롬프트만으로 UI 프로토타입, 피치덱, 슬라이드, 마케팅 배너를 뚝딱 만들어주는 도구로, 설계·마케팅 직군을 겨냥합니다. 디자인 파일이나 코드 저장소를 연결하면 회사의 색상·타이포그래피를 자동으로 적용한 디자인 시스템을 유지해 줍니다. 동시에 OpenAI는 Codex 데스크톱 앱을 대대적으로 업그레이드해, AI가 macOS 위 모든 앱을 직접 클릭·타이핑하는 '컴퓨터 사용(Computer Use)' 기능을 추가했습니다. 주간 활성 개발자 300만 명을 보유한 Codex가 단순 코딩 도구에서 범용 데스크톱 에이전트로 진화한 셈입니다. Google DeepMind도 오픈 모델 Gemma 4(Apache 2.0 라이선스)를 출시, 31B 모델이 오픈 모델 순위 3위에 오르며 클라우드 없이도 쓸 수 있는 고성능 AI 시대를 알렸습니다.

👉 이렇게 써봐: 디자이너·PM·마케터 모두 '프롬프트로 초안 → AI로 시각화 → 전문 도구로 마무리'하는 워크플로우가 6개월 내 표준이 될 가능성이 높습니다. 지금 Claude Design 무료 체험(Pro 플랜)을 미리 써보는 것이 좋습니다.
🔗 자세히 보기
🛠️ 개발자 도구
OpenAI Codex, 내 Mac을 직접 조종한다
💡 핵심: 300만 개발자가 쓰는 Codex가 코딩 도구에서 '데스크톱 에이전트'로 진화

OpenAI가 4월 16일 Codex 데스크톱 앱을 대규모 업데이트했습니다. 핵심은 'Computer Use' — AI가 macOS 위 모든 앱을 보고, 클릭하고, 타이핑하는 기능으로, 사용자가 다른 작업을 하는 동안 에이전트가 백그라운드에서 병렬로 동작합니다. 또한 앱 내 브라우저가 생겨 프론트엔드 페이지에 직접 코멘트를 달아 수정 지시를 내릴 수 있고, GPT-Image로 이미지를 생성하거나 90개 이상의 플러그인(Atlassian, GitLab, CircleCI 등)을 연결할 수 있습니다. 메모리 기능이 추가되어 코딩 스타일과 프로젝트 선호도를 기억해 매번 반복 설명 없이 작업을 이어갈 수 있습니다.

🎯 실전 활용: Figma 디자인을 Codex에 연결하면 프로덕션용 UI 코드로 1:1 변환까지 자동화 — 디자인 파일 받아서 퍼블리싱까지 한 세션에서 완료 가능.
👉 이렇게 써봐: ChatGPT Plus/Pro 구독자라면 codex.openai.com에서 macOS 앱을 바로 다운로드해 사용 가능. System Settings → Privacy & Security → Accessibility에서 Codex 권한을 켜야 Computer Use가 활성화됩니다.
🔗 자세히 보기
🔓 오픈소스 실전
Gemma 4 — 스마트폰도 돌리는 오픈 AI
💡 핵심: 출시 3주 만에 Hugging Face 누적 업보트 800+ · 31B 모델이 오픈 순위 3위

Google DeepMind가 4월 2일 Gemma 4를 Apache 2.0 라이선스로 공개했습니다. E2B(스마트폰용)·E4B(엣지용)·26B MoE·31B Dense, 네 가지 크기로 나뉘며 텍스트·이미지·오디오를 모두 처리하는 멀티모달 모델입니다. 특히 26B MoE는 추론 시 실제로 활성화되는 파라미터가 약 3.8B에 불과해, 소비자용 GPU에서도 빠르게 동작합니다. AIME 2026 수학 벤치마크에서 Gemma 3의 20.8%에서 89.2%로 수직 상승했고, 코딩 벤치마크(LiveCodeBench)도 29.1% → 80.0%으로 도약했습니다. 140개 이상의 언어를 지원하고 256K 토큰 컨텍스트를 처리하며, 오프라인 로컬 에이전트 구축에 최적화되어 있습니다.

💻 요구 사양: E2B/E4B: RAM 4GB, GPU 불필요, Android/iOS/Raspberry Pi 가능 | 26B MoE: RAM 16GB + GPU 8GB 이상 (RTX 3060~) | 31B Dense: GPU VRAM 24GB 이상 (RTX 4090 또는 A100) | Windows/Mac/Linux 모두 지원
설치·시작: ollama run gemma4 # 가장 빠른 로컬 실행 방법 또는: pip install transformers accelerate 후 from transformers import AutoModelForCausalLM 으로 로드
👉 이렇게 써봐: 오프라인 법률·의료 문서 요약, 사내 코드베이스 Q&A 챗봇, 모바일 앱 내 온디바이스 번역 에이전트 등 클라우드 비용·개인정보 걱정 없이 구축 가능. Apache 2.0이라 상업적 제품에도 제약 없이 탑재할 수 있습니다.
🔗 자세히 보기
오늘의 AI 트렌드
오늘 세 소식을 관통하는 흐름은 'AI의 실행 반경 확장'입니다 — 클라우드 API를 호출하는 수준을 넘어, AI가 디자인 캔버스를 채우고, 데스크톱 앱을 직접 조작하며, 내 하드웨어 위에서 오프라인으로 작동하는 방향으로 개발 생태계가 빠르게 이동하고 있습니다.

댓글

이 블로그의 인기 게시물

반도체·플랜트·광반도체·배터리소재 동시 점화

트럼프 이란 강공에 코스피 패닉, 인버스·해운·알루미늄 폭발

호르무즈 봉쇄·스테이블코인·나이키의 3중 충격