Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Dicionário de Jargão de IA (Edição de março de 2026), recomenda-se guardar
null
Autor|Golem(@web 3_golem)
Agora, se as pessoas no círculo das criptomoedas não prestarem atenção à IA, é fácil ser ridicularizado pela multidão (sim, meu amigo, pensa porque é que clicaste).
Não sabes nada sobre os conceitos básicos de IA e perguntas o que significa a abreviatura em cada frase? Está confuso com vários termos corretos em atividades offline de IA, e tem de fingir que não deixa cair a linha?
Embora seja irrealista entrar na indústria da IA num curto espaço de tempo, vale sempre a pena conhecer o vocabulário básico de alta frequência da indústria da IA. Felizmente, o próximo artigo é para si ↓ recomendo sinceramente que o leia e colecione.
Vocabulário Básico (12)
LLM (Grande Modelo de Linguagem)
No seu cerne, os LLMs são modelos de deep learning treinados com grandes quantidades de dados que são bons a compreender e gerar linguagem, e que conseguem lidar com texto e, em vez disso, outros tipos de conteúdo.
Em contraste, SLMs (pequenos modelos de linguagem) – modelos de linguagem mais baratos, mais leves de implementar e mais fáceis de localizar.
Agente de IA
O AI Agent não é apenas um “modelo de chat”, mas um sistema que compreende objetivos, chama ferramentas, executa tarefas passo a passo e pode planear e validar quando necessário. A Google define um agente como um software que pode raciocinar com base em entradas multimodais e realizar ações em nome dos utilizadores.
Multimodal
O seu modelo de IA não só lê texto, como pode processar múltiplas formas de entrada e saída, como texto, imagens, áudio e vídeo ao mesmo tempo. A Google define explicitamente multimodalidade como a capacidade de processar e gerar diferentes tipos de conteúdo.
Enunciado
As instruções introduzidas pelos utilizadores no modelo são os métodos de interação humano-computador mais básicos.
IA generativa (IA generativa / AIGC)
Enfatizando a “geração” de IA em vez da mera classificação ou previsão, os modelos generativos podem gerar texto, código, imagens, memes, vídeos e muito mais com base em prompts.
Token
Este é um dos conceitos mais “unidades de gás” no círculo da IA. Em vez de compreender o conteúdo pela contagem de palavras, o modelo processa a entrada e saída por token, e a faturação, o comprimento do contexto e a velocidade de resposta estão geralmente fortemente relacionados com os tokens.
Janela de Contexto
Refere-se ao número total de tokens que o modelo “vê” e utiliza de cada vez, e pode também ser referido como o número de tokens que o modelo pode considerar ou “memorizar” num único processamento.
Memória
Deixe que o modelo ou agente retenha as preferências do utilizador, o contexto da tarefa e o estado histórico.
Formação
O processo pelo qual o modelo aprende parâmetros a partir dos dados.
Inferência
Ao contrário do treino, refere-se ao processo de receber entrada e gerar saída após o lançamento do modelo. Diz-se frequentemente na indústria que “a formação é cara, o raciocínio é mais caro”, porque muitos custos ocorrem na fase real de comercialização em inferência. A distinção relevante entre formação e inferência é também o quadro básico para os fornecedores tradicionais discutirem os custos de implementação.
Utilização de Ferramentas / Chamada de Ferramentas
Isto significa que o modelo não só gera texto, como também pode chamar ferramentas como pesquisa, execução de código, bases de dados e APIs externas, o que tem sido considerado uma das principais capacidades dos agentes.
API (Interface)
A infraestrutura quando produtos, aplicações e agentes de IA se ligam a serviços de terceiros.
Vocabulário Avançado (18)
Transformador
Uma arquitetura de modelo que torna a IA melhor na compreensão das relações contextuais, e que é também a base técnica da maioria dos grandes modelos de linguagem atualmente, e a sua maior característica é conseguir ver a relação entre cada palavra e outras palavras em todo o parágrafo ao mesmo tempo.
Atenção
É o mecanismo central mais crítico do transformador, e a sua função é permitir que o modelo julgue automaticamente “quais as palavras que mais merecem atenção” ao ler uma frase.
Fluxo de Trabalho Agentico / Agente
Este é um ditado popular recentemente, que significa que um sistema já não é apenas uma “pergunta e resposta”, mas tem um certo grau de autonomia para desmontar tarefas, decidir o próximo passo e recorrer a capacidades externas. Muitos fabricantes usam-no como sinal de “passar de chatbots para sistemas executáveis”.
Subagentes
Um agente divide então vários agentes dedicados para tratar das subtarefas.
Competências (Módulo de Competências Reutilizáveis)
Com a explosão do OpenClaw, o termo tornou-se obviamente comum, sendo uma unidade/manual de funcionalidades instalável, reutilizável e componível para Agentes de IA, mas também alerta para o risco de abuso de ferramentas e exposição de dados.
Alucinação (alucinação de máquina)
Significa que o modelo fala seriamente disparates e “percebe um padrão que não existe” para gerar um erro ou um resultado absurdo, que é um resultado excessivamente confiante que parece razoável mas que na verdade está errado.
Latência
O tempo que um modelo demora a receber um pedido para obter resultados é uma das gírias de engenharia mais comuns, e aparece frequentemente quando se fala de implementação e comercialização.
Guarda-corpos
Usado para limitar o que o modelo/agente pode fazer, quando parar e que conteúdo não pode ser produzido.
Vibe Coding
Esta palavra é também a gíria mais popular da IA atualmente, o que significa que os utilizadores expressam diretamente as suas necessidades através do diálogo, a IA escreve código e os utilizadores não precisam de saber escrever.
Parâmetros
A escala digital usada para capacidade de armazenamento e conhecimento dentro do modelo é frequentemente usada para medir aproximadamente o volume do modelo, e “10 mil milhões de parâmetros” e “100 mil milhões de parâmetros” são as declarações de bluff mais comuns no círculo da IA.
Modelo de Raciocínio
Normalmente refere-se a modelos que são melhores em raciocínio em múltiplos passos, planeamento, validação e execução de tarefas complexas.
MCP (Protocolo de Contexto de Modelo)
Esta é uma palavra de gíria muito popular no último ano, que funciona como estabelecer uma interface comum entre o modelo e ferramentas/fontes de dados externas.
Ajuste Fino / Afinação
é continuar a treinar no modelo de base para o tornar mais adequado a uma tarefa, estilo ou área específica. O Glossário do Google utiliza diretamente o ajuste fino e o ajuste fino como conceitos relacionados.
Destilação
Comprimir as capacidades de modelos grandes para modelos pequenos tanto quanto possível, como permitir que os “professores” ensinem “alunos”.
RAG (Geração Aumentada por Recuperação)
Isto tornou-se quase a configuração básica da IA empresarial. A Microsoft define-o como um modelo “pesquisa + LLM”, usando dados externos para fundamentar respostas, resolvendo o problema dos dados de treino do modelo desatualizados e a falta de compreensão de bases de conhecimento privadas. O objetivo é basear as respostas em documentos reais e conhecimento privado, em vez de apenas os recordar pelo próprio modelo.
Encalhamento
Aparece frequentemente com o RAG, o que significa que as respostas do modelo baseiam-se em fontes externas como documentos, bases de dados e páginas web, em vez de depender apenas da memória de parâmetros para “jogar livremente”. A Microsoft inclui claramente o enraizamento como valor central na documentação do RAG.
Embedding (embeddings vetoriais / vetores semânticos)
Consiste em codificar texto, imagens, áudio e outros conteúdos em vetores digitais de alta dimensão para cálculos semânticos de similaridade.
Referência
O método de avaliação de usar um conjunto unificado de normas para testar a capacidade dos modelos é também a linguagem de classificação favorita de vários modelos para “provar que são fortes”.
Leitura recomendada
11 Perguntas-chave sobre a lagosta: A explicação mais fácil de entender sobre o princípio do OpenClaw