Calculadora de IA Local

Selecione seu hardware para ver quais modelos rodam localmente. Sem GPU dedicada? Sem problemas—Ollie também funciona perfeitamente com suas APIs de nuvem favoritas.

Selecione Sua GPU
🖥️

Selecione uma GPU acima para ver quais modelos você pode rodar.

☁️

Prefere Modelos na Nuvem?

Ollie não é apenas para IA local. Você pode conectar suas chaves de API para GPT-4o, Claude 3.5 Sonnet e Gemini Pro para escrever código e editar mídia sem usar uma gota de VRAM local.

📝 Como Funciona

Estimativas de VRAM são baseadas em quantização Q4_K_M, o formato mais comum para rodar LLMs localmente via Ollama. O uso real pode variar dependendo do comprimento do contexto, overhead do sistema e aplicações simultâneas. Apple Silicon usa memória unificada — toda a RAM do sistema está disponível para carregar modelos. Modelos marcados como "Apertado" funcionam, mas podem ficar lentos em conversas longas.

Rode IA Localmente com o Ollie

Conecte Ollama, Gemini, OpenAI e mais — tudo em uma suíte de IA soberana e privada.

Baixar Ollie