기술

올라마 0.22.1, API 키 없이 노트북에서 Gemma 4 도구 호출을 돌리다

Susan Hill

올라마 0.22.1은 Gemma 4 렌더러를 업데이트해, 본격적인 로컬 AI 작업에서 의미 있는 두 가지 능력, 즉 명시적 사고 모드와 함수 또는 도구 호출을 마침내 제대로 지원한다. 도구 호출은 모델이 스스로 외부 함수를 부를 시점을 정하게 하고 — 웹 페이지를 열거나, 데이터베이스에 질의하거나, 계산을 돌리거나 — 그 결과를 다시 자신의 추론에 엮어 넣는다. 사고 모드는 모델의 중간 단계를 바깥으로 드러내, 애플리케이션이 그것을 잡아 다음 동작으로 이어 갈 수 있게 한다. 둘 다 대형 클라우드 API들이 돈을 받아 온 기능이었다. 둘 다 이제는 외부 서비스를 거치지 않고, Gemma 4 위에서 로컬로 돌아간다.

이 소식이 또 다른 모델 출시보다 무겁게 다가오는 이유는 하드웨어 계산이다. 구글이 Apache-2.0 라이선스로 공개한 Gemma 4 계열은 네 가지 크기, 즉 E2B, E4B, 26B A4B, 31B를 아우른다. 작은 변형은 통합 그래픽과 12~16기가바이트 램을 가진 최근 노트북에서 돈다. 26B A4B와 31B 버전은 데스크톱용 GPU가 필요하지만, 그래도 분명한 소비자 영역 안에 머문다. 예전에는 유료 API 계약이나 네 자릿수짜리 가정용 서버를 요구하던 같은 계열의 아키텍처가, 이제는 어지간히 현대적인 컴퓨터를 가진 사람에게 토요일 오후의 설치 작업이 된다.

프로그래밍을 하지 않는 사람에게는 한 무리의 에이전트형 애플리케이션 — 이메일을 읽고, 답장을 초안 잡고, 문서를 가져오고, 양식을 채우고, 회의를 요약하는 종류 — 이 그 데이터를 더 이상 제3자 서버로 보낼 필요가 없다는 것이 실질적인 효과다. 진짜 에이전트 자동화를 원하면서 사생활까지 챙기려는 사용자에게 지금까지는 두 갈래뿐이었다. 클라우드 사업자의 데이터 정책을 믿거나, 도구 호출이 없는 훨씬 약한 모델을 로컬에서 돌리는 것이다. 그 사이 구간은 빈 자리였고, 올라마 0.22.1은 Gemma 4 체급에 한해 그 자리를 메운다.

회의적으로 읽으면, 올라마와 Gemma 4는 클라우드 최전선과 동급이 아니다. 로컬에 띄운 31B 모델은 복잡한 추론에서 앤트로픽의 Claude나 OpenAI의 GPT-5에 미치지 못한다. 긴 연쇄에서 도구 호출 정확도는 작은 변형일수록 눈에 띄게 떨어진다. 멀티모달 입력도 돌긴 하지만 더 느리다. 그리고 통합 부담은 사용자에게 남는다. 완성된 SaaS 워크플로와 겨룰 만큼 다듬어진 Gemma 4 더하기 올라마 기반 에이전트 앱은 아직 누구도 내놓지 못했다. 하드웨어 천장과 소프트웨어 마감은 여전히 실재하는 빈 곳이다.

이번 릴리스는 macOS, Linux, Windows용 올라마 표준 설치 프로그램으로 지금 받을 수 있다. Gemma 4 가중치는 올라마 모델 라이브러리의 gemma4 네임스페이스 아래 올라와 있고, 0.22.1의 런타임 변경은 어떤 크기든 일단 내려받으면 자동으로 적용된다.

토론

댓글 0개가 있습니다.