Imagine poder conversar com os maiores especialistas em finanças e marketing digital do Brasil, fazer perguntas específicas e receber respostas baseadas em tudo que eles já ensinaram em seus canais do YouTube, sem pagar nada por cursos.
Essa ideia pode parecer distante, mas com as ferramentas certas de automação e inteligência artificial, é completamente possível montar um sistema assim do zero, mesmo sem experiência em programação.
Neste artigo, você vai entender como construir um agente de IA usando o N8N, capaz de consumir transcrições de vídeos do YouTube e responder perguntas com base nesse conteúdo, utilizando uma técnica chamada RAG (Retrieval-Augmented Generation).
O Que é RAG e Por Que Ele é Importante
RAG é uma abordagem que combina busca em banco de dados com geração de texto por inteligência artificial.
Em vez de depender apenas do conhecimento interno de um modelo de linguagem, o agente consulta uma base de dados externa antes de responder.
Isso significa que as respostas são fundamentadas em informações reais, extraídas de fontes específicas, como as transcrições dos vídeos dos youtubers que você escolher.
O resultado prático é um assistente que responde perguntas como: “De acordo com o Bruno Perini, qual a melhor estratégia para investir em 2026?” e entrega uma resposta detalhada, citando inclusive o vídeo de onde tirou aquela informação.
Ferramentas Necessárias para Montar o Sistema
Para replicar esse fluxo, você vai precisar de:
- N8N instalado em uma VPS (servidor na nuvem)
- Conta no Google Cloud Console para gerar uma chave de API do YouTube
- Conta no Supabase para armazenar o banco de dados vetorial
- Conta em um serviço de transcrição, como o Transcripti.com
- Credenciais da OpenAI para o modelo de embeddings
A forma mais prática de instalar o N8N é contratar um plano de VPS com suporte à instalação com um clique.
Após a instalação, o N8N estará disponível no navegador e pronto para receber os fluxos de automação.
Estrutura Geral do Fluxo em 5 Etapas
O sistema é dividido em cinco fases principais, cada uma responsável por uma parte do processo:
Etapa 1: Coletar os Vídeos dos Canais
O primeiro passo é buscar a lista de vídeos de cada canal no YouTube usando a API do Google.
Para isso, você precisa obter o ID de cada canal e salvá-lo em uma tabela no N8N chamada Data Tables.
Com o ID do canal em mãos, você acessa a API do YouTube para obter o ID de uma playlist oculta chamada “uploads”, que contém todos os vídeos publicados.
A partir daí, uma requisição paginada retorna os vídeos em grupos de 50 por vez, até esgotar a lista completa.
GET https://www.googleapis.com/youtube/v3/playlistItems
?part=snippet
&playlistId={UPLOADS_PLAYLIST_ID}
&maxResults=50
&key={SUA_API_KEY}
Os dados de cada vídeo, como título, ID e data de publicação, são salvos automaticamente na tabela de vídeos do Data Tables.
Etapa 2: Identificar Shorts e Filtrar Vídeos Longos
A API do YouTube não indica diretamente se um vídeo é um Short.
Para resolver isso, uma segunda requisição busca os detalhes de cada vídeo, incluindo a duração.
Vídeos com menos de 5 minutos são marcados como Shorts e excluídos do processamento de transcrição.
Essa verificação é feita em lotes de 50 vídeos por requisição, o que economiza cota da API do Google.
Etapa 3: Gerar as Transcrições
Para cada vídeo identificado como não sendo um Short, o sistema solicita a transcrição completa por meio de um serviço externo como o Transcripti.com.
Esse serviço oferece até 100 transcrições gratuitas por conta e planos pagos acessíveis para volumes maiores.

Fonte: Imagem gerada por IA. Modelo: black-forest-labs/flux.2-klein-4b
A transcrição é salva na tabela de vídeos, junto com um status que indica que o conteúdo já foi coletado.
Vídeos sem legenda disponível são marcados e ignorados para evitar travamentos no fluxo.
Etapa 4: Vetorizar o Conteúdo no Supabase
Esta é a etapa central do RAG.
As transcrições coletadas são enviadas para um banco de dados vetorial no Supabase.
Antes disso, é necessário criar a tabela com o seguinte comando SQL:
create extension if not exists vector;
create table documents (
id bigserial primary key,
content text,
metadata jsonb,
embedding vector(1536)
);
create or replace function match_documents (
query_embedding vector(1536),
match_count int default null,
filter jsonb default '{}'
) returns table (
id bigint,
content text,
metadata jsonb,
similarity float
)
language plpgsql
as $$
begin
return query
select
id,
content,
metadata,
1 - (documents.embedding <=> query_embedding) as similarity
from documents
where metadata @> filter
order by documents.embedding <=> query_embedding
limit match_count;
end;
$$;
O N8N divide automaticamente cada transcrição em fragmentos menores (chunks) de até 1000 caracteres e gera um vetor matemático para cada um usando o modelo de embeddings da OpenAI (text-embedding-3-small).
Junto com cada chunk, são salvos metadados como nome do youtuber, título do vídeo e ID do vídeo, o que permite filtrar as buscas por especialista.
Etapa 5: Criar o Agente Conversacional
O agente é configurado no N8N com um prompt de sistema que define seu comportamento.
Ele deve responder apenas com base nas informações do banco de dados vetorial, sem inventar respostas ou misturar conhecimento externo.
O agente possui duas ferramentas principais:
- Lista de Canais: consulta a tabela de canais para verificar se o youtuber solicitado existe na base.
- Supabase Vector Store: realiza buscas semânticas no banco vetorial para encontrar os trechos mais relevantes de transcrição.
Quando o usuário faz uma pergunta como “De acordo com o Érico Rocha, como fazer um lançamento semente?”, o agente consulta o banco vetorial, encontra os chunks relacionados ao tema e gera uma resposta coerente, podendo inclusive indicar o link do vídeo de origem.
Boas Práticas para Escalar o Sistema
Alguns pontos importantes para quem quiser expandir esse fluxo:
- Use gatilhos de agendamento no N8N para automatizar cada etapa de forma independente, evitando sobrecarga e erros em cascata.
- Separe os fluxos em arquivos distintos dentro do N8N para facilitar a manutenção.
- Prefira o Supabase ao Data Tables para armazenar os dados dos canais e vídeos, pois ele oferece recursos SQL completos e maior flexibilidade.
- Adicione metadados extras como quantidade de curtidas e data de publicação para enriquecer as buscas.
- Considere criar um sistema web com webhook para separar os agentes por especialista e oferecer uma interface mais amigável ao usuário.
Possibilidades de Uso Além dos Youtubers
A lógica desse sistema não se limita a vídeos do YouTube.
O mesmo fluxo pode ser adaptado para:
- PDFs de livros e cursos
- Artigos de blogs e sites
- Contratos e documentos empresariais
- Qualquer texto que possa ser convertido em chunks e vetorizado
Basta substituir a etapa de transcrição pelo carregamento do documento desejado e o restante do fluxo funciona da mesma forma.
Resumindo
Criar um agente de IA com N8N que aprende com youtubers é totalmente viável e acessível.
O processo envolve coletar vídeos via API do YouTube, filtrar Shorts, gerar transcrições com um serviço externo, vetorizar o conteúdo no Supabase usando embeddings da OpenAI e configurar um agente conversacional com RAG.
O resultado é um assistente que responde perguntas com base no conhecimento real de qualquer criador de conteúdo, citando as fontes e permitindo expansão contínua da base de dados.
Com criatividade, esse mesmo sistema pode ser transformado em um produto ou serviço completo para empresas e criadores de conteúdo.
Fonte do conteúdo: este artigo foi escrito a partir do estudo e análise do vídeo do YouTube https://www.youtube.com/watch?v=uMzFqBhmUEA.
