전체 글
-
Ollama + Gemma 4 26B Mac mini 설치 완전 가이드AI 2026. 4. 3. 22:42
Mac mini에서 로컬 LLM을 돌리고 싶다면클라우드 API 비용이 부담스럽거나, 코드와 데이터를 외부로 보내기 꺼려지는 상황이라면 로컬에서 대형 언어 모델을 직접 실행하는 게 현실적인 대안이에요. Ollama는 Apple Silicon Mac에서 LLM을 손쉽게 실행할 수 있게 해주는 런타임으로, v0.19부터 Apple의 MLX 프레임워크를 자동으로 활용해 추론 속도가 크게 향상됐어요. 이 글에서는 Mac mini (M1~M5) 위에서 Ollama와 Gemma 4 26B 모델을 설치하고, 부팅 시 자동 로드까지 구성하는 전 과정을 다뤄요.사전 준비시작 전에 아래 조건을 확인하세요.Apple Silicon Mac mini (M1/M2/M3/M4/M5)통합 메모리(Unified Memory) 24GB ..
-
Gemma 4 완벽 가이드: 파라미터 효율 극대화한 구글 오픈 모델AI 2026. 4. 3. 22:36
Gemma 4란 무엇이고, 왜 지금 주목해야 할까요?온디바이스 AI(On-device AI) 시대가 본격화되면서, 클라우드 의존 없이 스마트폰이나 IoT 기기에서 강력한 추론을 수행할 수 있는 경량 언어 모델에 대한 수요가 폭발적으로 늘고 있어요. 구글 딥마인드(Google DeepMind)가 공개한 Gemma 4는 바로 이 문제를 정면으로 겨냥한 오픈 모델이에요. Gemini 3 연구와 기술을 그대로 이식하면서도, 파라미터 대비 지능(intelligence-per-parameter)을 극한까지 끌어올린 설계가 핵심이에요. 이 글에서는 Gemma 4의 아키텍처 특징, 실제 배포 시나리오, 그리고 기존 모델과의 성능 트레이드오프(trade-off)를 개발자 관점에서 깊이 있게 다뤄볼게요.Gemini 3 연..
-
Qwen3.6 Plus 완벽 정리 2026: 알리바바 AI의 새로운 기준AI 2026. 4. 3. 00:47
AI 모델 경쟁이 치열해지는 2026년, 알리바바 클라우드(Alibaba Cloud)가 조용히 판을 뒤집는 모델을 내놓았어요. 바로 Qwen3.6 Plus입니다. GPT나 Claude 이야기는 많이 들어봤어도, Qwen 시리즈가 어느새 글로벌 최상위권 벤치마크에 이름을 올리고 있다는 사실을 아는 분은 많지 않아요. 이번 글에서는 Qwen3.6 Plus가 정확히 무엇인지, 어떤 기술적 혁신을 품고 있는지, 그리고 개발자와 기업이 어떻게 활용할 수 있는지를 한눈에 정리해 드릴게요.Qwen3.6 Plus란 무엇인가요?Qwen3.6 Plus는 알리바바가 개발한 대형 언어 모델(LLM, Large Language Model) 패밀리인 Qwen 시리즈의 최신 플래그십 모델이에요. 이전 세대인 Qwen 3.5 Plu..
-
Booking.com, OpenAI LLM 통합으로 스마트 여행 경험 제공AI 2026. 4. 2. 11:36
OpenAI LLM과 Booking.com의 시너지 효과Booking.com(북킹닷컴)은 여행자의 다양한 니즈를 충족하기 위해 OpenAI(오픈AI)의 LLM(대규모 언어 모델) 기술과 자체 데이터를深度融合(심층 통합)했습니다. 이는 단순한 검색 엔진을 넘어, 사용자의 의도를 파악하여 맞춤형 여행 경험을 제공하는 혁신적인 접근법입니다.스마트 검색 및 빠른 고객 지원이 통합 시스템을 통해 Booking.com은 전통적인 검색 방식의 한계를 넘어선 스마트 검색 기능을 구현했습니다. 사용자가 단순한 키워드 입력을 넘어 자연어로 질문할 때, LLM이 Booking.com의 방대한 예약 데이터를 실시간으로 분석하여 가장 적합한 결과를 제시할 수 있습니다.의도 기반 여행 경험의 구현Booking.com의 핵심 목표..
-
HYGH, ChatGPT Business로 개발 속도 2 배 증가AI 2026. 4. 2. 11:28
ChatGPT Business 가 HYGH 의 개발 속도를 어떻게 변화시켰는가OpenAI 는 최근 ChatGPT Business의 기능 업데이트가 소프트웨어 개발 프로세스에 혁명적인 변화를 가져왔음을 발표했습니다. 특히 HYGH 팀은 이 도구를 활용하여 개발 기간을 획기적으로 단축하고, 마케팅 캠페인 배포 속도를 2 배로 증가시켰습니다. 이는 단순한 기능 추가를 넘어, 개발자의 작업 효율성을 근본적으로 재설계한 결과입니다.개발 프로세스의 자동화 가속화ChatGPT Business는 이제 단순한 대화형 AI 를 넘어, 실제 개발 워크플로우에 깊게 관여하는 도구로 진화했습니다. HYGH 팀은 이 플랫폼을 통해 코드를 작성하고, 테스트를 수행하며, 배포까지의 전체 주기를 자동화하는 데 큰 도움을 받았습니다. ..
-
연속 체크포인팅으로 AI 모델 학습 성능을 극대화하는 방법AI 2026. 4. 2. 10:53
대규모 AI 모델을 학습시키다 보면 누구나 한 번쯤 이런 상황을 겪어요. 수십 시간 동안 돌리던 학습이 하드웨어 오류 하나로 처음부터 다시 시작되는 순간이죠. 이 문제를 해결하는 열쇠가 바로 연속 체크포인팅(Continuous Checkpointing)이에요. 구글이 Orbax와 MaxText에 새롭게 도입한 이 기능은, 기존의 고정 주기 체크포인트 방식이 가진 근본적인 한계를 극복하고 학습 자원 낭비를 최소화해요. 이 글에서는 연속 체크포인팅이 무엇인지, 왜 기존 방식보다 뛰어난지, 그리고 실제로 어떻게 적용하는지를 단계별로 설명해 드릴게요.기존 체크포인트 방식의 딜레마AI 모델 학습에서 체크포인트(Checkpoint)는 학습 중간 상태를 저장하는 일종의 '세이브 포인트'예요. 문제는 이 저장 주기를 ..
-
딥러닝 혼합 정밀도 훈련: BF16 vs FP16 완벽 가이드AI 2025. 6. 24. 16:25
딥러닝 혼합 정밀도 훈련: BF16 vs FP16 완벽 가이드딥러닝 모델을 훈련할 때 가장 큰 고민 중 하나는 바로 메모리 부족입니다. 특히 대용량 언어 모델(LLM)을 파인튜닝할 때는 GPU 메모리가 금세 바닥나는 경험을 해보셨을 텐데요. 이런 문제를 해결하는 핵심 기술이 바로 **혼합 정밀도 훈련(Mixed Precision Training)**입니다.오늘은 혼합 정밀도 훈련의 두 주요 방식인 BF16과 FP16에 대해 자세히 알아보겠습니다.혼합 정밀도 훈련이란?전통적으로 딥러닝 모델은 32비트 부동소수점(FP32)으로 훈련되었습니다. 하지만 이는 메모리를 많이 사용하고 훈련 속도가 느리다는 단점이 있었죠. 혼합 정밀도 훈련은 16비트 부동소수점을 사용해 이런 문제를 해결하는 기술입니다.핵심 아이디어..
-
[안드로이드] 화면 켜짐 상태 유지 및 해제안드로이드 2023. 3. 8. 10:54
개요 안드로이드에서 앱 개발 시 화면을 켜짐 상태로 유지해야하는 경우가 있다. 그럴 경우 아래와 같이 flag를 추가 및 제거해준다. 켜짐 상태 유지 아래와 같이 window.addFlags에 WindowManager.LayoutParams.FLAG_KEEP_SCREEN_ON 을 추가해준다. class MainActivity : Activity() { override fun onCreate(savedInstanceState: Bundle?) { super.onCreate(savedInstanceState) setContentView(R.layout.activity_main) window.addFlags(WindowManager.LayoutParams.FLAG_KEEP_SCREEN_ON) } } 또 다른 ..