OpenClaw na Nuvem: Por que não faz sentido rodar isso na sua máquina

O que é o OpenClaw?
No fim de 2025 surgiu no GitHub um projeto que parecia pequeno demais para gerar tanto barulho: um assistente de IA que executa tarefas em vez de responder a perguntas.
O nome mudou algumas vezes por questões legais, mas isso é detalhe. O que chamou atenção foi outra coisa: funcionava de verdade.
A diferença é gigante. Você não conversa com ele. Você pede e ele faz. Uma mensagem vira ação. Ler e-mails, responder, organizar agenda, rodar comandos, mexer em arquivos. Sem trocar de janela, sem etapa manual no meio.
Por baixo dos panos, vai um processo Node.js conectado a canais como Telegram, WhatsApp e Slack. O comportamento vem das "skills", arquivos em Markdown que ensinam o agente a usar ferramentas externas. O repositório comunitário já tem mais de 700 delas.
Onde ele começa a brilhar?
O ponto não é só executar. É continuar.
Diferente de um chatbot, ele mantém estado entre sessões. Lembra o que estava fazendo, entende contexto ao longo do tempo e age de forma recorrente sem precisar de nova instrução a cada passo.
Também não existe simulação de acesso. Ele trabalha com acesso real ao sistema de arquivos, ao terminal, a APIs e ao navegador. Isso muda a natureza da ferramenta. Deixa de ser interface e passa a ser processo com permissão para agir.
Quando o problema começa?
Comecei rodando local e tudo parecia promissor: está perto então posso ficar de olho nele, responde rápido, parece sob controle. Mas pouco tempo depois você começa a entender o problema real: você está dividindo sua escova de dentes com alguém que você mal conhece...
Ele roda dentro do mesmo ambiente que você usa no dia a dia, com acesso a arquivos pessoais, sessões abertas, credenciais armazenadas e histórico de uso. Ele não precisa invadir nada. Já está dentro.
E mais uma coisa: lembra de todas aquelas skills criadas pela comunidade que eu citei anteriormente? O risco não vem de um erro específico. Vem do alcance que o agente tem.
Colocando o OpenClaw na Solitária
O passo seguinte foi isolá-lo. Um hardware exclusivo para ele, controlado, onde ele pode ser o rei do próprio castelo. Até funciona, mas só resolve parte do problmea: se algo sair errado, o impacto não atinge a máquina principal.
Mas outros limites aparecem. O equipamento precisa ficar ligado o tempo todo, depende da sua rede local, depende de energia, e ainda limita o modelo que você consegue rodar. Esse último ponto é mais importante do que parece.
O modelo define o resultado
O OpenClaw executa. Quem decide como executar é o modelo de linguagem natural nos bastidores.
Modelos pequenos dão conta de tarefas simples. Começam a falhar quando entra ambiguidade, múltiplas etapas ou dependência de contexto mais longo. E workflows agenticos reais têm essas características o tempo todo.
Hoje, uma referência sólida para uso local é o recém lançado Gemma 4. A variante 26B usa arquitetura MoE, o que reduz o custo de execução sem comprometer tanto a qualidade. Para rodar bem via Ollama, você precisa de algo próximo de 15GB de VRAM. Isso já tira da categoria de hardware comum e torna a compra de um equipamento dedicado um rombo na carteira.
Onde a nuvem resolve
Depois de testar local e hardware dedicado, a solução mais estável foi mover para nuvem. Usei a Oracle Cloud Infrastructure com GPU, pela versatilidade, segurança e facilidade de uso e implementação. Os ganhos são diretos: isolamento completo da máquina pessoal, hardware adequado para modelos capazes, independência da rede local e disponibilidade constante. A instância VM.GPU.A10.1 entrega uma NVIDIA A10 com 24GB de VRAM, suficiente para rodar o Gemma 4 26B com folga para contextos longos.
Custo Real
A GPU não precisa ficar ativa o tempo todo. O OpenClaw suporta cron jobs nativamente, o que significa que você define exatamente quando o agente executa cada tarefa.
Um cenário razoável para quem está começando: Manhã, às 7h: o agente lê os e-mails recebidos desde a noite anterior, verifica a agenda do dia e manda um resumo pelo Telegram. Leva cerca de 3 minutos de GPU. Final do dia, às 17h: classifica os e-mails, sinaliza os que precisam de resposta e rascunha as respostas mais simples. Cerca de 5 minutos. À noite, às 21h: consolida compromissos mencionados em mensagens e atualiza a agenda. Cerca de 2 minutos.
Total por dia: aproximadamente 10 minutos de processamento ativo. No mês, isso dá em torno de 5 horas de GPU efetiva.
| Modo | Preço por hora | 5h no mês | Custo estimado |
|---|---|---|---|
| On-demand | $2,00 | 5h | ~$10 |
| Preemptível | $0,45 | 5h | ~$2,25 |
No modo preemptivo, a instância pode ser reclamada com 30 segundos de aviso, o que é aceitável para uso pessoal onde interrupções ocasionais não são críticas. Fora dos horários de execução, a instância fica ociosa ou pode ser desligada.
Para um usuário iniciante, o custo mensal fica na faixa de alguns dólares. À medida que você adiciona automações, o custo cresce de forma proporcional e previsível.
Uma nota sobre eficiência
Há uma forma de tornar o agente mais eficiente dentro do próprio OCI e reduzir ainda mais o custo de cada inferência, mas isso fica para o próximo artigo sobre o tema.
---
Tutorial: deploy na OCI com GPU
Ao final destes passos, você terá o OpenClaw rodando em uma instância com NVIDIA A10, o Gemma 4 carregado via Ollama e o acesso configurado via Tailscale, sem nenhuma porta pública exposta.
Pré-requisitos: conta Oracle Cloud Pay-As-You-Go, conta Tailscale gratuita, par de chaves SSH e cerca de 45 minutos.
Passo 1: Criar o compartimento
No console da Oracle Cloud, vá em Identity & Security > Compartments > Create Compartment. Nomeie como `openclaw-gpu` e confirme. Use esse compartimento em todos os passos seguintes.
Passo 2: Criar a Virtual Cloud Network
Crie a rede antes de criar a instância. Se tentar criar durante o setup, a opção de IP público pode ficar desabilitada.
Vá em Networking > Virtual Cloud Networks > Start VCN Wizard escolha "Create VCN with Internet Connectivity" e confirme.
Passo 3: Criar a instância GPU
Vá em Compute > Instances > Create Instance e configure:
- **Name:** openclaw
- **Image:** Ubuntu 22.04
- **Shape:** VM.GPU.A10.1 (em "Specialty and Previous Generation")
- **Boot volume:** 100 GB
Adicione sua chave SSH pública, confirme que a VCN do passo anterior está selecionada e que o IP público está ativo. Clique em Create e aguarde o status RUNNING. Anote o IP público.
Se aparecer "Out of capacity", tente outra região ou aguarde. Regiões menos populares costumam ter disponibilidade mais consistente.
Passo 4: Setup Automatizado Via Shell
Os passos seguintes (drivers, CUDA, Ollama, modelo, OpenClaw e Tailscale) podem ser executados com o script abaixo. Cole no terminal após conectar via SSH.
#!/bin/bash
set -e
echo "==> Atualizando sistema"
sudo apt update && sudo apt upgrade -y
sudo apt install -y build-essential ubuntu-drivers-common
echo "==> Instalando driver NVIDIA"
sudo ubuntu-drivers autoinstall
echo "==> Reiniciando para aplicar driver"
sudo reboot
Após o reboot, reconecte via SSH e rode o segundo bloco:
#!/bin/bash
set -e
echo "==> Verificando GPU"
nvidia-smi
echo "==> Instalando CUDA Toolkit"
sudo apt install -y cuda-toolkit-12-3
echo 'export PATH=/usr/local/cuda/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc
echo "==> Instalando Ollama"
curl -fsSL https://ollama.com/install.sh | sh
echo "==> Baixando Gemma 4 (17GB, aguarde)"
ollama pull gemma4:27b
echo "==> Testando modelo"
ollama run gemma4:27b "O que é um agente de IA? Responda em duas frases."
echo "==> Instalando Tailscale"
curl -fsSL https://tailscale.com/install.sh | sh
sudo tailscale up --ssh --hostname=openclaw
echo "==> Instalando OpenClaw"
curl -fsSL https://openclaw.ai/install.sh | bash
echo "==> Configurando gateway"
openclaw config set gateway.bind loopback
openclaw config set gateway.auth.mode token
openclaw doctor --generate-gateway-token
openclaw config set gateway.tailscale.mode serve
openclaw config set gateway.trustedProxies '["127.0.0.1"]'
systemctl --user restart openclaw-gateway.service
echo ""
echo "Setup concluido."
echo "Acesse a interface em: https://openclaw.SEU_TAILNET.ts.net"
echo "Configure o modelo: Provider=Ollama, URL=http://localhost:11434, Model=gemma4:27b"
Após o Tailscale ser instalado, o terminal vai gerar uma URL para autenticação. Abra no navegador, faça login e autorize o dispositivo antes de continuar.
Passo 5. Bloquear o firewall da VCN
No console da Oracle Cloud, vá em **Networking > Virtual Cloud Networks**, clique na VCN criada, depois em **Security Lists > Default Security List**.
Remova todas as regras de ingresso existentes e adicione apenas uma:
- **Source:** 0.0.0.0/0
- **Protocol:** UDP
- **Port:** 41641
Isso bloqueia SSH, HTTP e HTTPS na borda da rede. O acesso passa a ser exclusivamente via rede privada Tailscale.
Passo 6. Configurar os cron jobs
Na interface do OpenClaw, cada skill pode ter um gatilho de agendamento. Um ponto de partida razoável:
# Briefing matinal
0 7 * * * openclaw run skill:briefing-diario
# Revisão de e-mail
0 17 * * 1-5 openclaw run skill:revisao-email
# Consolidação de agenda
0 21 * * * openclaw run skill:agenda-consolidar
Com isso, a GPU entra em atividade três vezes por dia por alguns minutos e fica ociosa o restante do tempo.
Conectar o Canal de Mensagens
Para Telegram, acesse @BotFather, crie um bot com `/newbot` e copie o token. Na interface do OpenClaw, adicione o canal com esse token e envie uma mensagem para confirmar que o agente responde.
---
Então, o que temos aqui?
Um agente rodando em uma instância com GPU dedicada na Oracle Cloud, isolado da sua máquina pessoal, sem portas públicas expostas, com acesso seguro via Tailscale e custo mensal previsível.
O OpenClaw funciona - e funciona muito bem, obrigado. A moral da história é que o problema nunca foi a ferramenta em si, mas onde devemos rodá-la.


