Carregando...
Carregando...

Neste módulo, exploraremos duas áreas fundamentais para a fluência em IA: primeiro, uma compreensão básica de como funcionam os modelos de linguagem (abordada também no material complementar); depois, a competência de Description — a arte de se comunicar efetivamente com sistemas de IA.
IA Generativa refere-se a sistemas de inteligência artificial que podem criar novo conteúdo em vez de apenas analisar dados existentes.
| IA Tradicional | IA Generativa |
|---|---|
| Classifica e-mails como spam ou não spam | Escreve um e-mail completamente novo para você |
| Analisa e categoriza | Cria algo que não existia antes |
Isso representa uma mudança fundamental nas capacidades da IA.
Os Large Language Models (LLMs), como os modelos Claude da Anthropic, são um tipo proeminente de IA generativa. São chamados de "modelos de linguagem" porque são treinados para prever e gerar linguagem humana, e "de grande escala" porque contêm bilhões de parâmetros — valores matemáticos que determinam como o modelo processa informação, de forma semelhante às conexões sinápticas no seu cérebro.
O caminho até a IA generativa de hoje não foi repentino. Envolveu três desenvolvimentos cruciais convergindo no momento certo:
1. Avanços Arquiteturais
Embora redes neurais existam conceitualmente há décadas, o desenvolvimento da arquitetura Transformer em 2017 foi revolucionário. Essa arquitetura se destaca em processar sequências de texto mantendo relações entre palavras em passagens longas — algo crítico para entender linguagem em contexto.
2. Explosão de Dados Digitais
LLMs modernos como Claude aprendem de fontes diversas: sites, repositórios de código e outros textos que representam conhecimento e comunicação humana. Essa vasta tapeçaria de informação ajuda os modelos a desenvolver uma compreensão ampla e nuançada tanto de linguagem quanto de conceitos.
3. Aumento Massivo de Poder Computacional
Hardware especializado como GPUs (unidades de processamento gráfico) e TPUs (unidades de processamento tensorial), junto com redes de computação distribuída, tornaram possível processar quantidades de dados que seriam impossíveis há poucos anos.
Durante o treinamento inicial, LLMs analisam padrões em bilhões de exemplos de texto. Imagine ler cada site e texto que pudesse encontrar, não apenas para absorver informação, mas para entender as relações estatísticas entre palavras, frases e conceitos. Nesta fase, o modelo essencialmente constrói algo como um mapa complexo de linguagem e conhecimento.
O processo envolve mostrar texto ao modelo e pedir que preveja o que vem a seguir. Através de muitas iterações, o modelo gradualmente refina suas previsões, aprendendo os padrões que tornam a linguagem coerente e significativa.
Após o pré-treinamento, os modelos passam por treinamento adicional onde aprendem a seguir instruções, fornecer respostas úteis e, importante, evitar gerar conteúdo prejudicial. Isso frequentemente envolve feedback humano para melhorar o desempenho do modelo, bem como aprendizado por reforço que usa recompensas e penalidades para moldar o comportamento do modelo na direção de ser mais útil, honesto e inofensivo.
Quando você interage com um LLM, você está fornecendo um prompt — texto que o modelo lê e então continua baseado em padrões aprendidos durante o treinamento. O modelo não está recuperando respostas pré-escritas de um banco de dados; está gerando novo texto que estatisticamente segue o que você escreveu.
Há também um limite prático para quanta informação um LLM pode considerar de uma vez, conhecido como janela de contexto. Pense nisso como a memória de trabalho da IA. A janela de contexto inclui seus prompts, as respostas da IA e qualquer outra informação que você compartilhou na conversa.
Os modelos de linguagem modernos são incrivelmente versáteis:
LLMs têm uma data de corte baseada em quando foram treinados, após a qual não têm conhecimento inato do mundo. Imagine alguém que foi para um retiro sem acesso à internet em uma data específica — não saberia sobre eventos que aconteceram depois. Modelos precisam de ferramentas como busca na web para aprender sobre desenvolvimentos recentes.
O processo de treinamento não verifica cada fato nos dados de treinamento. Isso significa que modelos podem às vezes aprender e reproduzir imprecisões. Também podem cometer erros ao tentar juntar informações que aprenderam.
Alucinação é quando a IA afirma algo com confiança que parece plausível mas é na verdade incorreto. Diferente de motores de busca que simplesmente recuperam documentos existentes, LLMs geram respostas baseadas em padrões estatísticos, às vezes produzindo informações falsas.
Todo LLM tem um limite máximo de quanta informação pode considerar durante uma única interação. Se esse limite for excedido, a IA não conseguirá lembrar informações que caem fora da janela, geralmente numa base de "primeiro a entrar, primeiro a sair".
Diferente de software tradicional que produz saídas idênticas dado as mesmas entradas, LLMs são um tanto imprevisíveis por padrão. Faça a mesma pergunta duas vezes e você pode receber respostas ligeiramente diferentes. Essa variabilidade vem da natureza de como esses modelos geram texto — fazendo decisões probabilísticas sobre qual texto deve vir a seguir.
Embora modelos mais novos estejam melhorando rapidamente, LLMs historicamente mostram limitações com tarefas de raciocínio complexo, particularmente problemas matemáticos ou lógicos que requerem múltiplos passos.
As aplicações mais eficazes aproveitam as forças complementares de humanos e IA. Nós trazemos pensamento crítico, julgamento, criatividade e supervisão ética. A IA oferece velocidade, escala, reconhecimento de padrões e capacidade de processar vastas quantidades de informação.
Description é sobre comunicar com a IA para explicar tarefas, fazer perguntas, fornecer contexto e guiar a interação. Vai muito além de apenas escrever prompts inteligentes.
É sobre:
Pense nisso como construir uma ponte entre suas intenções e as capacidades da IA.
A qualidade das saídas da IA frequentemente depende de quão claramente você descreve o que quer. É como a diferença entre pedir a alguém para "fazer o jantar" versus fornecer uma receita detalhada com ingredientes e instruções de preparo.
A IA não consegue ler sua mente. Em vez de assumir que a IA sabe o que você está procurando, você precisa explicar cada detalhe relevante:
É a capacidade de definir claramente o que você quer que a IA crie ou forneça.
Elementos a especificar:
Às vezes, especificar como a IA deve abordar um trabalho é tão ou mais importante que especificar o objetivo final. Assim como você pode preferir que um colega aborde um problema usando seu método específico, você pode guiar como a IA trabalha através do seu pedido.
Formas de abordar:
Perguntas a considerar:
Ferramentas de IA não são bancos de dados ou máquinas de venda automática. São sistemas interativos que podem se comportar diferentemente em diferentes contextos — muito parecido com pessoas.
Você precisa explicar como quer que a IA se comporte para obter os melhores resultados.
Perguntas a considerar:
| Componente | Foco | Pergunta-Chave |
|---|---|---|
| Descrição do Produto | O que você quer | "Qual é o resultado final?" |
| Descrição do Processo | Como abordar | "Qual método seguir?" |
| Descrição do Desempenho | Como se comportar | "Que tipo de parceiro você precisa agora?" |
Quando você desenvolve sua capacidade de Description, transforma a IA de assistentes genéricos em parceiros de pensamento finamente ajustados que podem verdadeiramente atender às suas necessidades.
Prompting é simplesmente como aplicamos a competência de Description na prática — comunicando claramente o que queremos, como queremos que seja feito e como queremos interagir com nosso assistente de IA ao longo de todo o processo.
Pense em prompting como explicar uma tarefa a um colega prestativo que está ansioso para ajudar, mas precisa de direções claras e definição de expectativas para fazer seu melhor trabalho.
Seja específico e claro sobre o que você quer, por que você quer e, surpreendentemente, quem você é.
Exemplo básico:
"Me fale sobre mudança climática."
Exemplo com contexto:
"Explique três impactos principais das mudanças climáticas na agricultura em regiões tropicais, com exemplos da última década. Estou me preparando para uma entrevista de emprego em um laboratório de pesquisa agrícola na Indonésia. Tenho formação em ecologia, mas nenhum conhecimento específico sobre mudança climática. Escreva um resumo de conceitos-chave que me ajudariam a falar com propriedade na entrevista."
Todo esse contexto adicional ajuda a adaptar a resposta à sua situação específica e nível de conhecimento. Esse tipo de informação de fundo é algo que naturalmente fornecemos em conversas humanas, mas podemos esquecer de incluir ao falar com a IA.
Às vezes, mostrar é melhor que contar. Fornecer exemplos do tipo de saída que você está procurando pode ser incrivelmente eficaz. Isso é às vezes chamado de "few-shot prompting" em círculos técnicos.
Exemplo:
"Aqui estão dois exemplos de como converter jargão técnico em linguagem simples:
Original: O algoritmo quântico exibe aceleração quadrática. Simples: O novo método resolve problemas aproximadamente duas vezes mais rápido que métodos anteriores.
Original: A interface aproveita paradigmas de design intuitivo. Simples: O design é fácil de entender e usar.
Agora, por favor, converta este manual técnico complexo para linguagem simples:"
Ao fornecer exemplos, procure cobrir a diversidade completa de casos ou estilos possíveis. Isso ajuda a IA a entender melhor o padrão amplo que você quer que ela siga.
Ser claro sobre restrições de saída como formato e extensão desejados ajuda a garantir que você obtenha exatamente o que precisa.
Exemplo:
"Crie um site portfólio de arte moderno e limpo de uma única página. Inclua estas seções principais: hero, sobre mim, habilidades, projetos do portfólio, experiência e contato. Faça o menu de navegação fixo e responsivo com menu hambúrguer no celular. Use uma paleta de cores de pôr do sol e adicione um botão de alternância modo escuro/claro na navegação."
Orientação assim ajuda a IA a estruturar sua resposta para corresponder às suas expectativas.
Quando você tem um pedido complicado, dividir em passos menores ajuda a IA a seguir seu pensamento e entregar melhores resultados.
Listar os passos da tarefa garante que a IA siga o processo que você quer para realizar a tarefa. Isso às vezes é chamado de "chain of thought prompting".
Exemplo:
"Gostaria de analisar esses dados de vendas trimestrais. Por favor, aborde isso:
- Olhando nossos registros de vendas para identificar os produtos com melhor desempenho
- Comparando os resultados do trimestre atual com o trimestre anterior
- Destacando quaisquer tendências ou padrões incomuns
- Sugerindo possíveis razões para essas tendências"
Às vezes pode ser útil dar espaço explícito para a IA trabalhar através do seu processo primeiro antes de executar sua tarefa. Essa abordagem ajuda a produzir respostas mais completas e bem consideradas.
Exemplo:
"Antes de responder, por favor, pense cuidadosamente sobre este problema. Considere os diferentes fatores envolvidos, restrições potenciais e várias abordagens antes de recomendar a melhor solução."
É importante notar: dar espaço para a IA pensar antes de fazer sua tarefa, não depois. Se você quer que esse pensamento aumente a qualidade do trabalho da IA, ela precisa pensar antes de agir — assim como ter espaço para pensar antes de você agir é diferente de agir primeiro e depois ser pedido para explicar seu pensamento depois.
Especificar como você quer que a IA se comunique e se comporte pode mudar significativamente como ela aborda uma tarefa. Ao especificar o nível de expertise esperado, a perspectiva que você quer que ela adote ou seu estilo de comunicação, você pode guiar tanto a interação quanto o resultado final.
Exemplo:
"Por favor, explique como arco-íris se formam da perspectiva de um professor de ciências experiente falando com uma criança de 10 anos brilhante que se interessa por ciência."
Ou:
"Como um especialista em design UX, revise este wireframe de site e sugira três melhorias focando em navegação do usuário e acessibilidade."
Talvez a técnica mais poderosa seja pedir à IA para ajudar a melhorar seu prompt. Quando você não tem certeza de como pedir algo ou como melhorar seu prompt, descreva sua situação e peça à IA para tornar seu prompt melhor ou escrevê-lo para você.
Exemplo:
"Estou tentando fazer você me ajudar com [objetivo]. Não tenho certeza de como formular meu pedido para obter os melhores resultados. Você pode me ajudar a criar um prompt eficaz para isso?"
Sua primeira tentativa nem sempre vai render o resultado perfeito — e isso é esperado. Quando uma resposta não é bem o que você precisa, tente refinar sua abordagem:
Use cada interação como feedback para melhorar seu próximo prompt. Com o tempo, você desenvolverá uma intuição para como se comunicar efetivamente com todos os sistemas de IA.
Tempo estimado: 10 minutos
Instruções:
Tempo estimado: 15 minutos
Escolha uma tarefa real que você precisa fazer e pratique aplicando cada uma das seis técnicas:
Compare os resultados de cada versão.
Antes de prosseguir, reserve um momento para considerar:
Material de referência do Módulo 2 — Fluência em IA