Olá {{nome_leitor | apaixonado por IA}}!
Lembraste desta edição sobre a minha tentativa de app?Esta semana houve progresso real.
A parte funcional está praticamente toda a trabalhar.
Falta apenas uma segunda ronda séria de testes antes de a considerar pronta para uso diário.
Mas o mais interessante não é a app em si. É o método.
Desta vez não usei um único modelo para tudo. Dividi o trabalho entre três, cada um com uma função clara. E isso mudou completamente o resultado.
Nesta edição explico-te exatamente o workflow que usei e porque funcionou muito melhor.
TUTORIAIS E PROMPTS
A 2ª tentativa de criar uma app com IA
A app já está praticamente funcional.
Falta só uma segunda ronda de testes mais rigorosa antes de a usar no dia a dia.
O que mudou desta vez não foi a ideia.
Foi o processo.
Onde me baralhei antes foi tentar usar uma única ferramenta para pensar, estruturar, gerar código e rever tudo. Resultado: respostas enormes, consumo alto de créditos e pouca sensação de controlo.
Desta vez fiz diferente.
Dividi o trabalho em três fases claras.
Fase 1 – Planeamento (ChatGPT - modo Thinking): usei-o para definir o plano completo da app.
Funções, fluxos, campos obrigatórios, lógica de funcionamento. Só texto. Sem código. O objetivo era perceber exatamente tudo o que precisava de ter.
Fase 2 – Execução (Codex): Com o plano fechado, passei-o ao Codex. Usei o prompt que o ChatGPT me tinha dado. Ele gerou a estrutura inicial. Pastas. Funções. Ligações principais. Já havia algo concreto para correr localmente e testar.
Fase 3 – Revisão (Claude Code): Depois peguei no código e levei-o ao Claude Code. Mas não pedi para criar nada novo. Pedi para rever.
Onde pode falhar? Que partes estão frágeis? Há problemas de lógica? Há riscos que não estou a ver? Ele fez exatamente isso. Apontou melhorias e potenciais falhas.
E aqui fiz uma coisa que me ajudou muito.
Voltei ao Codex e pedi-lhe para comparar as duas versões. Expliquei: mostra-me as diferenças e diz-me o que mudou na prática. Isso ajudou-me a perceber o impacto real das sugestões, em vez de aceitar tudo às cegas.
O que ficou claro? Separar pensar, construir e rever poupa créditos e permite retirar o melhor de cada modelo.
Cada modelo fez uma coisa específica. Nenhum teve de fazer tudo. E eu senti muito mais controlo sobre o processo.
Em vez de esperar que um único modelo faça tudo bem, usei cada um naquilo em que tende a ser mais forte:
Um para estruturar pensamento.
Outro para produzir código.
Outro para criticar e encontrar falhas.
O que ainda não ficou totalmente claro é qual a combinação mais eficiente em termos de custo por resultado. Preciso de testar mais para perceber.
Mas em termos de controlo e clareza, esta abordagem foi claramente superior. Agora só falta confirmar se está mesmo tudo funcional. E claro, tornar bonito. E aí à outro modelo que ajuda muito melhor nisso. Mas fica para a próxima edição sobre isto.
ÚLTIMAS DE IA
A Perplexity AI apresentou o Perplexity Computer, descrito como um “trabalhador digital” de uso geral.
Em vez de funcionar apenas como chat ou agente isolado, o Computer cria e executa workflows completos: divide um objetivo em tarefas, gera sub-agentes especializados e coordena diferentes modelos de IA para concluir o trabalho ao longo de horas ou até meses.
Está disponível para subscritores Perplexity Max, com expansão prevista para Enterprise.
Porque importa
Mais do que um agente: não responde só a perguntas nem executa tarefas únicas. Organiza processos inteiros de forma autónoma.
Multi-modelo por defeito: usa diferentes modelos consoante a tarefa. Por exemplo, Opus 4.6 para raciocínio principal, Gemini para investigação profunda, ChatGPT para memória de longo contexto, entre outros.
Ambiente isolado de execução: cada tarefa corre num ambiente próprio, com acesso a navegador, sistema de ficheiros e integrações reais.
Assíncrono e paralelo: permite correr vários “computers” em simultâneo enquanto o utilizador se dedica a outras tarefas.
Opinião: apesar de ainda não ter experimentado, parece parecido ao que a Anthropic lançou com o Claude Cowork. Mas a Perplexity fez algo diferente (e bem): usa modelos diferentes para tarefas especificas. O facto de não teres apenas um único modelo a correr permite-te maior flexibilidade entre as grandes vantagens que cada um tem (como expliquei acima no processo da minha app). E se puderes escolher a tua preferência, então acho sem dúvida uma ótima ferramenta!(atenção, sem experimentar por mim, não tenho subscrição do Perplexity).
Uma investigadora de segurança da Meta, Summer Yue, relatou no X que o seu agente OpenClaw começou a apagar emails em massa quando lhe pediu para analisar a caixa de entrada e sugerir o que arquivar ou eliminar.
Segundo o relato, o agente ignorou instruções posteriores enviadas pelo telemóvel a pedir para parar. Yue disse que teve de correr até ao computador para interromper manualmente o processo.
Não foi possível confirmar de forma independente o que aconteceu à caixa de correio, mas o episódio tornou-se viral e gerou debate sobre os riscos dos agentes locais.
Porque importa
Excesso de confiança progressiva: o agente tinha funcionado bem numa “caixa de teste”, o que levou a utilizadora a confiar que faria o mesmo com dados reais.
Janela de contexto e compressão: quando a conversa cresce demasiado, alguns sistemas começam a resumir partes anteriores. Isso pode levar a que instruções críticas sejam ignoradas.
Prompts não são guardrails reais: escrever “não faças isto” não garante que o sistema respeite sempre essa ordem.
Opinião: o lado insólito da história é precisamente este: mesmo alguém tecnicamente preparado, habituado a pensar em riscos e guardrails, pode perder o controlo de um agente autónomo.
Se quem trabalha diariamente com estes sistemas tem de correr até ao computador para impedir uma “speed run” de eliminação de emails, isso diz muito sobre o estado atual dos agentes. A tecnologia está a avançar rápido. E provavelmente mais rápido que nós acompanhamos.
Depois de as negociações entre a Anthropic e o Departamento de Defesa dos EUA terem falhado, a OpenAI anunciou rapidamente um acordo para disponibilizar os seus modelos em ambientes classificados.
O CEO Sam Altman admitiu que o acordo foi “apressado” e que a perceção pública “não é boa”. Ainda assim, a empresa publicou um texto a explicar as salvaguardas incluídas no contrato.
Porque importa
Momento político sensível: o acordo surge logo após o governo dos EUA ter suspendido o uso de tecnologia da Anthropic.
Diferença de abordagem: a OpenAI defende que a sua proteção depende mais da arquitetura de implementação do que apenas de cláusulas contratuais.
Debate sobre vigilância: críticos argumentam que a linguagem contratual pode permitir recolha de dados ao abrigo de legislação já existente.
Opinião: a OpenAI afirma que os seus modelos não podem ser utilizados para vigilância doméstica em massa, sistemas de armas totalmente autónomos ou decisões automatizadas de alto impacto, como sistemas de “crédito social”. Defende ainda que o verdadeiro controlo não está apenas nas cláusulas contratuais, mas na arquitetura técnica de implementação: uso via cloud API, controlo operacional e supervisão por pessoal autorizado.
A questão central passa então a ser esta: são as salvaguardas técnicas suficientes para garantir esses limites na prática?
FERRAMENTA
Google AI Studio – O ponto de partida para criares apps com Gemini
Se andas a explorar vibe coding, criar apps com IA mesmo sem background técnico forte, o Google AI Studio pode ser um dos melhores sítios para começar.
Não é só um chatbot. É um espaço onde podes testar como o modelo vai responder antes de o integrares numa app. Podes estruturar bem o comportamento, definir instruções fixas e perceber como a lógica funciona — tudo antes de escrever uma linha de código real.
Porque é útil para vibe coders
Permite criar system instructions estáveis que depois podes reutilizar numa app.
Testas fluxos completos de perguntas e respostas antes de publicar.
Vês como o modelo reage a diferentes cenários sem teres de montar backend.
Gera código de integração automaticamente, caso queiras dar o passo seguinte.
Em vez de começares diretamente numa ferramenta de desenvolvimento, podes usar o AI Studio como laboratório: defines o comportamento da tua “mini-app”, ajustas, testas, melhoras e só depois levas isso para Lovable, MindStudio, n8n ou outro sistema.
Para quem está a construir MVPs simples ou micro-apps com IA, esta etapa intermédia evita muita frustração.
FERRAMENTAS QUE USO
Surfshark — VPN rápida e segura para navegação sem limites. [2 meses grátis + 79% off]
Beehiiv — Faz crescer a tua newsletter com referrals, páginas e analytics. [-20% nos 3 primeiros meses]
ManyChat — Automatiza WhatsApp/IG/FB e capta leads 24/7. [-30% por 3 meses]
Lovable — Cria websites/landing pages com IA em minutos, prontos a converter.
Se estás a pensar criar uma app, mesmo que seja só para uso interno, talvez a pergunta não seja “que ferramenta uso?”.
Talvez seja “em que fase estou agora?”.
Responde a este email e diz-me: estás a pensar construir alguma coisa este ano ou ainda estás só a explorar ideias?
Até à próxima edição! E lembra-te, quando se trata de inteligência artificial, "AI é Fácil!”💡
Um abraço,
Tiago

