
Prepare-se para o exame AWS AI Practitioner (AIF-C01) com questões práticas e explicações detalhadas.
Este simulado é um recurso educacional independente. Não é afiliado, endossado ou patrocinado pela Amazon Web Services (AWS).
Escolha o modo que combina com o seu objetivo agora.
Feedback após cada resposta, navegação livre, sem timer.
Simulação fiel ao exame real com tempo cronometrado.
Veja todas as questões com as respostas corretas e explicações detalhadas para fixar o conteúdo.
Questões
50
Tópicos
45
O que é Inteligência Artificial (IA) na sua definição mais básica?
Resposta correta: B. Computadores que executam tarefas que normalmente exigiriam inteligência humana
IA é o campo da computação dedicado a criar sistemas que executam tarefas que normalmente requereriam inteligência humana, como reconhecimento de padrões, tomada de decisão e processamento de linguagem natural. Não é apenas armazenamento, hardware específico nem uma linguagem.
Qual tipo de aprendizado de máquina usa dados rotulados (com a resposta correta) para treinar um modelo a fazer predições?
Resposta correta: A. Aprendizado supervisionado (supervised learning)
Aprendizado supervisionado usa dados rotulados (entrada → saída esperada) para treinar modelos de classificação ou regressão. Não supervisionado encontra padrões em dados sem rótulo (clustering), reforço aprende por tentativa e erro com recompensas e deep learning é uma técnica (redes neurais profundas) que pode ser aplicada em qualquer um dos tipos.
Em um pipeline típico de machine learning, qual é a diferença entre as fases de treinamento e inferência?
Resposta correta: B. Treinamento ajusta os parâmetros do modelo a partir de dados; inferência usa o modelo já treinado para fazer predições em dados novos
Treinamento é a fase em que o modelo aprende ajustando seus parâmetros (pesos) a partir de dados históricos. Inferência (também chamada predição) é a fase em que o modelo já treinado processa dados novos para gerar resultados. As duas fases podem usar diferentes tipos de hardware, mas a distinção fundamental é que treinamento cria/atualiza o modelo, enquanto inferência o utiliza.
Qual serviço da AWS é uma plataforma totalmente gerenciada para desenvolver, treinar e implantar modelos de machine learning em escala?
Resposta correta: B. Amazon SageMaker
O Amazon SageMaker é a plataforma gerenciada da AWS para o ciclo completo de ML: desenvolvimento (Studio, notebooks), treinamento, deploy de modelos em endpoints e monitoramento. Lambda é serverless compute, Comprehend é serviço NLP pré-treinado para tarefas específicas e Glue é ETL de dados.
O que diferencia a Inteligência Artificial Generativa (Generative AI) da IA tradicional?
Resposta correta: B. IA generativa cria novos conteúdos (texto, imagem, código, áudio) ao invés de apenas classificar ou predizer
IA generativa cria conteúdo novo (textos, imagens, código, áudio, vídeo) com base em padrões aprendidos durante o treinamento, enquanto a IA tradicional foca em classificar, predizer ou analisar dados existentes. Ela usa modelos de ML (especialmente foundation models), funciona com diversos tipos de dados e pode rodar em qualquer plataforma.
O que é um Foundation Model (FM) no contexto de IA generativa?
Resposta correta: B. Um modelo de grande escala pré-treinado em volumes enormes de dados, que pode ser adaptado para diversas tarefas downstream
Foundation Models são modelos de IA pré-treinados em volumes massivos de dados (textos, imagens, etc) que servem como "base" para serem adaptados a múltiplas tarefas via fine-tuning, RAG ou prompt engineering. Exemplos: Claude, Llama, Titan, Stable Diffusion. Não são instâncias, frameworks nem modelos de tarefa única.
No contexto de Large Language Models (LLMs), o que é um token?
Resposta correta: B. A unidade básica de texto que o modelo processa, geralmente uma palavra ou parte de uma palavra
Tokens são as unidades básicas que LLMs processam — podem ser palavras inteiras, sub-palavras ou caracteres dependendo do tokenizer. O custo de uso e os limites de contexto dos modelos são medidos em tokens. Não confundir com tokens de autenticação ou chaves de criptografia.
O que é um prompt no contexto de IA generativa?
Resposta correta: B. A entrada (texto, imagem ou outro dado) fornecida ao modelo para guiá-lo a gerar uma resposta
Prompt é a entrada (geralmente texto) que o usuário fornece ao modelo para orientar sua geração — pode incluir instruções, contexto, exemplos e perguntas. A qualidade do prompt afeta diretamente a qualidade da resposta (daí a disciplina de "prompt engineering"). Não é instância, senha nem peso de modelo.
Qual serviço da AWS oferece acesso gerenciado a foundation models de múltiplos provedores (Anthropic, Meta, Cohere, Amazon, etc) através de uma API unificada?
Resposta correta: B. Amazon Bedrock
O Amazon Bedrock é o serviço gerenciado da AWS que oferece acesso a foundation models de diversos provedores via API única, sem necessidade de gerenciar infraestrutura. SageMaker é uma plataforma genérica de ML, Lambda é compute serverless e Comprehend é NLP pré-treinado para tarefas específicas.
Qual técnica de prompt engineering envolve fornecer ao modelo alguns exemplos de pares (entrada, saída esperada) antes da pergunta real, para guiar o estilo de resposta?
Resposta correta: B. Few-shot prompting
Few-shot prompting fornece ao modelo poucos exemplos (geralmente 2-5) dentro do prompt para que ele aprenda o padrão esperado. Zero-shot é sem exemplos (apenas a instrução), fine-tuning re-treina os pesos do modelo com novos dados (não é prompt engineering) e pre-training é a fase original de criação do foundation model.
Qual técnica de prompt engineering pede que o modelo "pense passo a passo" antes de dar a resposta final, melhorando o desempenho em problemas que exigem raciocínio?
Resposta correta: A. Chain-of-Thought (CoT) prompting
Chain-of-Thought (CoT) prompting instrui o modelo a explicitar seu raciocínio passo a passo antes da resposta final. Particularmente útil em problemas matemáticos, lógicos e de planejamento. Zero-shot é apenas instrução sem exemplos, token streaming é a entrega incremental dos tokens e quantização é uma técnica de compressão do modelo.
Qual técnica permite que um foundation model responda usando informações específicas e atualizadas da empresa, sem precisar re-treinar o modelo?
Resposta correta: B. Retrieval Augmented Generation (RAG)
RAG (Retrieval Augmented Generation) busca documentos relevantes em uma base de conhecimento (geralmente um vector database como o do Bedrock Knowledge Bases) e injeta o conteúdo no prompt antes da geração, permitindo que o modelo responda com base em dados específicos sem re-treino. Pre-training cria o modelo do zero, quantização reduz tamanho e tokenização divide texto em tokens.
Quando faz mais sentido aplicar fine-tuning a um foundation model em vez de usar prompt engineering?
Resposta correta: B. Quando você precisa adaptar o modelo a um domínio muito específico, com vocabulário próprio, e tem dados rotulados de qualidade
Fine-tuning é apropriado quando o caso de uso requer adaptação profunda do modelo a um domínio específico (jargão técnico, formato consistente, comportamento muito particular) e existem dados de treino de qualidade. É mais caro e demorado que prompt engineering, então só vale quando essa segunda opção não atende. Para mudanças leves de tom ou estilo, prompt engineering é suficiente.
Qual serviço da AWS é um assistente de IA generativa para o trabalho, capaz de responder perguntas, gerar conteúdo e automatizar tarefas, com foco em ambientes corporativos?
Resposta correta: A. Amazon Q
O Amazon Q é o assistente de IA generativa da AWS focado em casos de uso corporativos (Q Developer para código, Q Business para conhecimento da empresa). Lex é para construir chatbots customizados, Polly faz text-to-speech e Comprehend é NLP pré-treinado para análise de texto.
O que é "viés" (bias) em sistemas de Inteligência Artificial?
Resposta correta: B. Tendências sistemáticas que levam a resultados injustos ou imprecisos para certos grupos, geralmente herdadas dos dados de treinamento
Bias em IA refere-se a tendências sistemáticas no modelo que produzem resultados desiguais ou injustos para grupos específicos (gênero, raça, idade etc). Geralmente vem dos dados de treinamento que refletem desigualdades históricas ou amostragem desbalanceada. Mitigar bias é um pilar central de IA responsável.
O que são AWS AI Service Cards?
Resposta correta: B. Documentos publicados pela AWS que descrevem casos de uso pretendidos, limitações, considerações de design responsável e melhores práticas para cada serviço de IA
AWS AI Service Cards são documentos de transparência publicados pela AWS para serviços de IA (como Rekognition Face Liveness, Bedrock FMs etc), descrevendo casos de uso pretendidos, limitações, considerações de design responsável e melhores práticas. Servem como guia para uso ético dos serviços.
Como o Amazon Bedrock protege os dados que clientes enviam para os foundation models por padrão?
Resposta correta: B. Os dados são criptografados em trânsito (TLS) e em repouso, e não são usados para treinar modelos de outros clientes
O Amazon Bedrock criptografa todo dado em trânsito (TLS) e em repouso, mantém os dados isolados na conta do cliente e NÃO usa o conteúdo dos prompts ou respostas para treinar modelos de fundação ou compartilhar com terceiros. Esse é um princípio central de governança de dados em Bedrock.
Qual prática de segurança da AWS deve ser usada para conceder a uma aplicação acesso ao Amazon SageMaker, sem expor credenciais permanentes?
Resposta correta: B. Usar IAM Roles com permissões temporárias
IAM Roles são a prática recomendada da AWS para conceder acesso a serviços (incluindo SageMaker), pois fornecem credenciais temporárias rotativas e seguem o princípio do menor privilégio. Compartilhar credenciais root, hardcoding ou desabilitar IAM violam diretamente as melhores práticas de segurança AWS.
Qual técnica de machine learning usa redes neurais com múltiplas camadas para aprender representações complexas de dados, sendo a base de muitos modelos de IA generativa?
Resposta correta: C. Deep Learning (redes neurais profundas)
Deep Learning usa redes neurais com múltiplas camadas (deep neural networks) para aprender representações hierárquicas dos dados. É a base dos modelos modernos de IA, incluindo CNNs (visão), RNNs/Transformers (linguagem) e foundation models. Regressão linear, árvores de decisão e Naive Bayes são técnicas de ML mais simples que não envolvem múltiplas camadas neurais.
Qual é a diferença entre um modelo de classificação e um modelo de regressão em machine learning?
Resposta correta: A. Classificação prediz categorias discretas (ex: spam ou não-spam); regressão prediz valores numéricos contínuos (ex: preço)
Classificação prediz categorias discretas (spam/não-spam, doente/saudável, gato/cachorro). Regressão prediz valores numéricos contínuos (preço, temperatura, idade). A escolha entre os dois depende do tipo de variável alvo. Não tem relação com velocidade nem com tipo de input — ambos podem usar imagens, números ou texto como entrada.
Em um problema de classificação binária com dados muito desbalanceados (ex: detecção de fraude), qual métrica é geralmente mais informativa que a acurácia simples?
Resposta correta: B. F1-score (combinação de precision e recall)
F1-score combina precision (taxa de acertos entre os positivos preditos) e recall (taxa de positivos reais detectados), sendo mais informativa que acurácia em datasets desbalanceados. Na detecção de fraude, um modelo que sempre prediz "não-fraude" pode ter 99% de acurácia mas ser inútil. As demais opções (tempo, tamanho, épocas) são detalhes operacionais, não métricas de qualidade do modelo.
O que são embeddings (representações vetoriais) no contexto de IA generativa?
Resposta correta: B. Vetores numéricos que representam o significado semântico de textos, imagens ou outros dados, permitindo comparação por similaridade
Embeddings são vetores numéricos de alta dimensão que codificam o significado semântico de dados (texto, imagens, áudio). Itens semanticamente similares ficam próximos no espaço vetorial. Embeddings são a base de busca semântica, RAG (vector databases) e clustering. Não são backups, templates nem instâncias.
O que é a "context window" (janela de contexto) de um Large Language Model?
Resposta correta: B. A quantidade máxima de tokens que o modelo pode processar de uma vez (entrada + saída)
Context window é o limite máximo de tokens que um LLM consegue processar em uma única chamada — incluindo o prompt de entrada e a resposta gerada. Modelos modernos vão de alguns milhares (4K, 8K) a milhões de tokens. Quando esse limite é excedido, o modelo perde acesso ao texto inicial. Não tem relação com UI, usuários simultâneos ou tempo de treino.
O que são "alucinações" (hallucinations) em modelos de IA generativa?
Resposta correta: B. Respostas geradas pelo modelo que parecem plausíveis mas são factualmente incorretas ou inventadas
Alucinações são respostas que o modelo gera com aparência convincente mas são factualmente erradas ou inventadas (datas, nomes, fatos). Acontecem porque LLMs são treinados a gerar texto plausível, não a verificar fatos. Mitigações incluem RAG (fornecer fontes), Guardrails e validação humana. Não são bugs de hardware, rate-limits nem imagens.
O que caracteriza um modelo de IA "multimodal"?
Resposta correta: B. Um modelo capaz de processar e/ou gerar múltiplos tipos de dado (ex: texto, imagem, áudio, vídeo)
Modelos multimodais aceitam e/ou geram múltiplos tipos de dado: texto, imagem, áudio, vídeo. Exemplos incluem Claude 3, GPT-4o, Gemini, Anthropic Vision. "Multilingual" (vários idiomas) é diferente de multimodal. Multi-region e paralelismo são aspectos de infraestrutura, não capacidades do modelo em si.
Qual recurso do Amazon Bedrock permite implementar RAG de forma totalmente gerenciada, conectando seus documentos a um foundation model?
Resposta correta: A. Bedrock Knowledge Bases
Bedrock Knowledge Bases é o recurso gerenciado para RAG: você aponta para uma fonte de dados (S3, SharePoint, Salesforce etc), e o Bedrock cuida da indexação, criação de embeddings, vector store e retrieval no momento da query. Pricing Calculator estima custos, Macie classifica dados sensíveis e Lambda Layers são bibliotecas compartilhadas — nenhum implementa RAG.
Para que servem os Agents for Amazon Bedrock?
Resposta correta: B. Permitir que foundation models executem ações em sistemas externos (APIs, bancos de dados) por meio de raciocínio em múltiplas etapas
Agents for Amazon Bedrock permitem que foundation models executem tarefas complexas chamando APIs, consultando bancos de dados e tomando decisões em múltiplas etapas (function calling + reasoning). Você define ações disponíveis e o agente decide quando e como chamar. Não substitui IAM, não hospeda modelos nem configura load balancers.
Qual recurso do Amazon Bedrock permite definir filtros para bloquear conteúdo prejudicial, tópicos proibidos e informações pessoais (PII) em prompts e respostas?
Resposta correta: B. Amazon Bedrock Guardrails
Bedrock Guardrails permite configurar filtros customizáveis no nível da aplicação: bloquear conteúdo prejudicial, denied topics (assuntos que o modelo não deve abordar) e PII (e-mails, CPF etc). Funciona tanto na entrada (prompt) quanto na saída (resposta). WAF protege apps web em geral, Macie classifica dados em S3 e Shield protege contra DDoS.
Qual recurso do Amazon SageMaker oferece um catálogo de foundation models e modelos pré-treinados que podem ser implantados com poucos cliques?
Resposta correta: B. SageMaker JumpStart
SageMaker JumpStart é um hub de modelos com FMs (Llama, Falcon, Stable Diffusion etc) e modelos task-specific pré-treinados, prontos para deploy ou fine-tuning. Pipelines orquestra fluxos de ML, Clarify mede bias e Model Monitor detecta drift de modelos em produção.
Qual modelo de cobrança o Amazon Bedrock usa por padrão (on-demand) ao invocar um foundation model?
Resposta correta: B. Cobrança por número de tokens de entrada (input) e saída (output) processados
O Bedrock on-demand cobra por número de tokens processados — separadamente input tokens (prompt) e output tokens (resposta), com preços diferentes conforme o modelo escolhido. Não é cobrança por instância (não há servidor para gerenciar) nem assinatura fixa. Provisioned Throughput é uma alternativa para uso intenso, mas não é o padrão.
Quando uma empresa tem uso constante e em alto volume de um foundation model no Bedrock, qual modelo de cobrança oferece capacidade reservada com latência consistente?
Resposta correta: B. Provisioned Throughput (capacidade reservada com compromisso)
O Bedrock Provisioned Throughput permite reservar capacidade de inferência (em "model units") com compromisso de 1 ou 6 meses, garantindo latência consistente e desconto vs on-demand para uso intenso. On-Demand cobra por token mas pode ter throttling em pico, Free Tier é para experimentação e Spot Instances é EC2 (não Bedrock).
O que significa "fairness" (equidade) na construção de sistemas de IA responsáveis?
Resposta correta: B. O modelo deve produzir resultados consistentes e não discriminatórios entre diferentes grupos demográficos
Fairness em IA significa que o sistema deve produzir resultados equitativos e não discriminatórios entre diferentes grupos (gênero, raça, idade, região etc), evitando perpetuar ou amplificar desigualdades históricas. Não tem relação com tempo de resposta, licença open source ou modelo de preço.
Qual capacidade descreve o nível em que humanos conseguem entender por que um modelo de IA tomou uma decisão específica?
Resposta correta: B. Explainability (explicabilidade) / interpretabilidade
Explainability (explicabilidade) é a capacidade de tornar compreensíveis as decisões de um modelo de IA — fundamental em domínios regulados (saúde, finanças, justiça). Inclui técnicas como SHAP, LIME, attention maps e ferramentas como SageMaker Clarify. Latência e throughput são métricas de performance e quantização é uma técnica de compressão de modelo.
Qual recurso do Amazon SageMaker ajuda a detectar e explicar bias e gerar relatórios de explainability sobre modelos de ML?
Resposta correta: A. SageMaker Clarify
SageMaker Clarify é a ferramenta dedicada da AWS para análise de bias (durante e após o treinamento) e geração de relatórios de explainability (SHAP values, feature importance). Pipelines orquestra fluxos de ML, Studio é o IDE de ML e Endpoints hospedam modelos para inferência — nenhum tem foco em bias/explainability.
Uma empresa quer usar foundation models do Bedrock para processar dados confidenciais sem expor o conteúdo a outros clientes ou aos provedores dos modelos. Qual característica do Bedrock atende essa necessidade?
Resposta correta: A. Os dados ficam isolados na conta do cliente, não saem do tenant AWS e não são usados para treinamento
O Bedrock garante isolamento de dados na conta do cliente — o conteúdo dos prompts e respostas não é compartilhado entre clientes, com provedores de modelo nem usado para retreino dos foundation models. Esse isolamento é central para casos de uso confidenciais. As demais opções descrevem o oposto da garantia oferecida pelo serviço.
Qual serviço da AWS pode ser usado para acessar relatórios de compliance (SOC, ISO, HIPAA, GDPR) aplicáveis aos serviços de IA da AWS, como Bedrock e SageMaker?
Resposta correta: A. AWS Artifact
AWS Artifact é o portal self-service de relatórios de compliance da AWS, oferecendo acesso a documentos como SOC reports, ISO certifications, PCI DSS, HIPAA BAA etc. Cobre todos os serviços AWS, incluindo os de IA. Rekognition é um serviço de visão computacional, Lambda é compute serverless e Knowledge Bases é RAG gerenciado — nenhum oferece relatórios de compliance.
Uma startup de saúde quer usar foundation models do Bedrock para processar dados de pacientes nos EUA. Qual aspecto de compliance é mais relevante?
Resposta correta: A. HIPAA (Health Insurance Portability and Accountability Act)
O HIPAA regulamenta a privacidade e segurança de informações de saúde (PHI - Protected Health Information) nos EUA. O Bedrock é elegível a HIPAA com BAA (Business Associate Agreement) assinado, conforme a lista de AWS HIPAA Eligible Services. ISO 9001 é gestão da qualidade, PCI DSS protege dados de cartão de crédito e SOX é compliance financeiro corporativo — nenhum específico para saúde.
Qual serviço da AWS é uma API pré-treinada que extrai entidades, sentimentos e tópicos de texto sem precisar treinar um modelo customizado?
Resposta correta: A. Amazon Comprehend
O Amazon Comprehend é o serviço gerenciado de NLP da AWS com APIs pré-treinadas para análise de sentimento, extração de entidades, detecção de idioma, classificação e modelagem de tópicos. Não exige treinamento. SageMaker é a plataforma genérica de ML, Glue é ETL e Athena é consulta SQL em S3.
Qual serviço da AWS você usaria para extrair texto de imagens e PDFs escaneados (OCR)?
Resposta correta: A. Amazon Textract
Amazon Textract usa ML para extrair texto, formulários e tabelas de documentos digitalizados (PDFs, imagens). Polly é text-to-speech (gera áudio a partir de texto), Translate é tradução automática e Lex é construção de chatbots — nenhum faz OCR.
Em machine learning, o que caracteriza um modelo com "overfitting"?
Resposta correta: B. O modelo tem ótimo desempenho em dados de treino, mas desempenho ruim em dados novos (não generaliza)
Overfitting acontece quando o modelo memoriza padrões específicos dos dados de treino (incluindo ruído) em vez de aprender padrões generalizáveis. Resultado: alta acurácia no treino e baixa em dados novos. Underfitting (modelo simples demais) tem baixo desempenho em ambos. Velocidade não é o critério.
O que o parâmetro "temperature" controla na geração de texto de um Large Language Model?
Resposta correta: B. O nível de aleatoriedade/criatividade da resposta — valores baixos produzem saídas determinísticas, valores altos produzem saídas mais variadas
Temperature é um parâmetro entre 0 e 1 (alguns modelos vão até 2) que controla a aleatoriedade da amostragem na geração: temperature=0 produz a saída mais provável (determinística), temperature alta (~0.9) produz respostas mais criativas/variadas. Não tem relação com hardware, custo ou tamanho da resposta.
Qual parâmetro de inferência limita o conjunto de tokens candidatos durante a geração ao menor grupo cuja probabilidade acumulada atinge um limite (ex: 0.9), permitindo controle adicional sobre a aleatoriedade junto com temperature?
Resposta correta: B. Top-P (nucleus sampling)
Top-P (nucleus sampling) restringe a amostragem aos tokens mais prováveis cuja soma de probabilidade atinge o valor configurado (ex: 0.9 inclui tokens até cobrir 90% da massa). Combina com temperature para controlar diversidade. Max Tokens limita o tamanho da resposta, Stop Sequences encerram a geração quando uma string aparece e Frequency Penalty desencoraja repetições.
Quais são exemplos típicos de casos de uso de IA generativa? (Escolha duas.)
Resposta correta: A. Geração de texto, código e resumos automáticos | C. Criação de imagens e arte digital a partir de descrições textuais
IA generativa é usada para criar conteúdo: texto (resumos, e-mails, artigos), código (assistentes como Q Developer), imagens/arte (text-to-image como Stable Diffusion), áudio e vídeo. Análise de tráfego de rede (CloudWatch, GuardDuty), substituição de hardware (compute) e otimização de billing (Cost Explorer, Trusted Advisor) NÃO são casos de uso de GenAI.
Quais são limitações conhecidas dos modelos de IA generativa atuais?
Resposta correta: B. Os modelos podem produzir alucinações, têm cutoff date de conhecimento e refletem vieses dos dados de treino
Limitações comuns dos LLMs/foundation models incluem: alucinações (respostas plausíveis mas incorretas), cutoff date (não sabem eventos posteriores ao treinamento), bias herdado dos dados, falta de raciocínio profundo em problemas complexos e custo computacional. NÃO é verdade que sempre fornecem fontes (precisam de RAG para isso) nem que falham em multi-idioma.
Para implementar RAG, é comum armazenar embeddings em um banco especializado em busca por similaridade vetorial. Qual serviço da AWS pode ser usado como vector store nativo para Bedrock Knowledge Bases?
Resposta correta: A. Amazon OpenSearch Serverless
O Amazon OpenSearch Serverless é um dos vector stores nativos suportados pelas Bedrock Knowledge Bases (junto com Aurora PostgreSQL com pgvector e Pinecone). Athena consulta dados em S3 via SQL, Redshift é data warehouse e Glue é ETL — nenhum é vector database.
Qual serviço da AWS permite construir e compartilhar apps de IA generativa rapidamente, sem código, usando foundation models do Bedrock?
Resposta correta: A. AWS PartyRock
PartyRock é um playground gratuito da AWS para criar apps de IA generativa de forma visual e sem código, usando modelos do Bedrock por trás. Lambda é compute serverless, CloudFront é CDN e SNS é pub/sub — nenhum é uma plataforma no-code de IA.
Qual prática de IA responsável ajuda a garantir que um modelo continue funcionando corretamente quando recebe entradas adversariais ou fora da distribuição esperada?
Resposta correta: B. Robustness (robustez) e testes adversariais
Robustness é a capacidade do modelo manter desempenho em entradas atípicas, com ruído ou adversariais (intencionalmente projetadas para enganar). Testes adversariais e validação contínua são pilares de IA responsável. Latência é métrica de performance e mudar tamanho do modelo não garante robustez por si só.
Qual serviço da AWS ajuda a criar datasets rotulados de alta qualidade para treinar modelos de ML, oferecendo gerenciamento de fluxos de anotação humana?
Resposta correta: A. Amazon SageMaker Ground Truth
O SageMaker Ground Truth é o serviço da AWS para gerenciar workflows de rotulagem (labeling) de dados com suporte a anotadores humanos (interno, Mechanical Turk ou vendors), reduzindo custo e tempo. Dados rotulados de qualidade são fundamentais para mitigar bias e produzir IA responsável. DataSync transfere arquivos, CloudWatch monitora e DataBrew prepara dados sem código (mas não rotula).
Como uma empresa pode acessar o Amazon Bedrock a partir de uma VPC privada, sem que o tráfego trafegue pela internet pública?
Resposta correta: B. Usar VPC Endpoints (PrivateLink) para Bedrock
VPC Endpoints (powered by AWS PrivateLink) permitem acessar o Bedrock por meio de uma interface privada dentro da VPC, sem tráfego pela internet pública. Aumenta segurança e compliance. VPN e Direct Connect conectam on-prem à AWS em geral, mas não isolam o tráfego ao serviço Bedrock especificamente. IPv6 não tem essa função.
Para fins de auditoria e compliance, como uma empresa pode registrar todas as invocações (prompts e respostas) feitas a foundation models do Bedrock?
Resposta correta: A. Habilitar Model Invocation Logging no Bedrock, enviando logs para CloudWatch Logs ou S3
O Bedrock oferece o recurso "Model Invocation Logging" que, quando habilitado, registra prompts, respostas e metadados em CloudWatch Logs e/ou S3 — útil para auditoria, debug e compliance. Os logs ficam na conta do cliente (não são automáticos). Um proxy customizado seria possível mas é desnecessário.
Pratique outras certificações AWS com os mesmos modos Estudo e Exame.
O simulado conta com 50 questões práticas baseadas no exame AIF-C01, cobrindo os 5 domínios oficiais com explicações detalhadas para auxiliar no seu aprendizado.
Sim. O conteúdo é organizado para refletir os 5 domínios oficiais do AWS Certified AI Practitioner (AIF-C01): fundamentos de AI/ML, IA generativa, modelos fundacionais, IA responsável e segurança.
Sim. Após selecionar uma alternativa, o simulado mostra a explicação justificando a resposta correta e por que as demais estão erradas.
O exame AIF-C01 usa um modelo compensatório com pontuação de 100 a 1000, e a nota mínima oficial para aprovação é 700 (~70%). No simulado adotamos o mesmo critério de 70%.
Sim. Todo o simulado é gratuito e acessível online, sem cadastro.