Довідник жаргону штучного інтелекту (версія березень 2026 року), рекомендується зберегти

robot
Генерація анотацій у процесі

Автор|Golem(@web 3_golem)

Зараз у криптосвіті, якщо не цікавитись AI, легко потрапити під насмішки (так, друже, подумай, чому ти сюди зайшов).

Чи ти зовсім не розумієш базові поняття AI, кожне скорочення в реченні питаєш, що означає? Чи ти на офлайн-заходах з AI злегка розгублений від різних спеціальних термінів і при цьому намагаєшся здаватися, ніби не втрачав зв’язок?

Хоча швидко увійти у сферу AI не реалістично, знати найчастотніші базові слова цієї галузі ніколи не зашкодить. Щасливо, ця стаття саме для тебе ↓ Щиро раджу вивчити та зберегти її.

Базові слова (12)

LLM(Великі мовні моделі)

Основою LLM є глибокі навчальні моделі, натреновані на величезних обсягах даних, що добре розуміють і генерують мову. Вони обробляють текст, а тепер все більше — інший контент.

Протилежністю є SLM(Малі мовні моделі) — зазвичай з меншими витратами, легким розгортанням і зручністю локалізації.

AI Agent(Інтелектуальний агент)

AI Agent — це не просто «модель, що спілкується», а система, яка розуміє ціль, викликає інструменти, виконує завдання поетапно, при необхідності планує і перевіряє. Google визначає агент як програму, здатну робити висновки з мультимодальних входів і виконувати дії від імені користувача.

Multimodal(Мультимодальний)

Модель AI не лише читає текст, а й одночасно обробляє текст, зображення, аудіо, відео та інші форми вводу-виводу. Google чітко визначає мультимодальність як здатність обробляти і генерувати різні типи контенту.

Prompt(Підказка)

Команда, яку користувач вводить моделі — це найпростіший спосіб взаємодії людини з машиною.

Generative AI(Генеративний AI / AIGC)

Підкреслює, що AI «генерує», а не просто класифікує або прогнозує. Генеративні моделі можуть створювати текст, код, зображення, меми, відео та інше за допомогою підказки.

Token(Токен)

Це одна з найбільш схожих на «одиницю газу» концепцій у AI. Модель не сприймає зміст за кількістю слів, а за кількістю токенів — це впливає на оплату, довжину контексту і швидкість відповіді, і зазвичай тісно пов’язано з токенами.

Context Window(Вікно контексту / Довжина контексту)

Кількість токенів, яку модель може одночасно «бачити» і використовувати. Також називається кількістю токенів, які модель може врахувати або «запам’ятати» за один раз.

Memory(Пам’ять)

Здатність моделі або агента зберігати переваги користувача, контекст завдання, історію станів.

Training(Навчання)

Процес, коли модель вчиться параметрам на основі даних.

Inference(Виведення / Виконання висновків)

Протилежність навчання — це процес, коли модель після запуску отримує вхідні дані і генерує вихід. У галузі часто кажуть «навчання дороге, виведення ще дорожче», оскільки багато витрат припадає саме на inference. Відмінність між цим — основа для обговорення витрат на розгортання у провідних компаній.

Tool Use / Tool Calling(Використання інструментів / Виклик інструментів)

Модель не лише генерує текст, а й може викликати пошук, виконання коду, бази даних, зовнішні API тощо. Це вже вважається однією з ключових можливостей агента.

API(Інтерфейс)

Інфраструктура для підключення AI-продуктів, застосунків, агентів до сторонніх сервісів.

Поглиблені слова (18)

transformer(Трансформер)

Архітектура моделі, яка дозволяє AI краще розуміти контекстні зв’язки. Це основа більшості сучасних великих мовних моделей, головна її особливість — здатність одночасно враховувати всі слова у тексті і їхні взаємозв’язки.

Attention(Механізм уваги)

Найважливіший механізм трансформера, що дозволяє моделі автоматично визначати, «на які слова варто звернути увагу».

Agentic / Agentic Workflow(Інтелектуальний агент / Робочий процес з агентами)

Це популярний термін, що означає, що система вже не просто «запит-відповідь», а має автономність у розбитті завдань, прийнятті рішень і виклику зовнішніх можливостей. Багато компаній вважають це ознакою перехід від чатботів до повноцінних виконавчих систем.

Subagents(Підагенти)

Один агент може бути розбитий на кілька спеціалізованих підагентів для обробки підзавдань.

Skills(Навички / Модулі здатностей)

Зі зростанням популярності OpenClaw цей термін став поширеним. Це модулі, які можна встановлювати, повторно використовувати і комбінувати для AI-агента — інструкції щодо можливостей або операцій. Але слід пам’ятати про ризики зловживання інструментами і витоку даних.

Hallucination(Машинні галюцинації)

Означає, що модель серйозно «бреше», «сприймає» неіснуючі патерни і генерує помилкові або абсурдні відповіді. Це надмірна впевненість моделі у своїй правильності, хоча насправді вона помиляється.

Latency(Затримка)

Час від отримання запиту до видачі результату — один із найпоширеніших технічних термінів, що часто з’являється у розмовах про впровадження і продукти.

Guardrails(Обмежувальні рамки)

Обмежують, що може робити модель або агент, коли зупинятися і які теми заборонено висловлювати.

Vibe Coding(Кодинг атмосфери)

Цей популярний сучасний AI-термін означає, що користувач просто висловлює свої потреби у діалозі, а AI пише код, при цьому користувач не обов’язково має знати, як саме писати код.

Parameters(Параметри)

Цифровий обсяг, що зберігає здатності і знання моделі. Зазвичай використовують для грубої оцінки розміру моделі — «сто мільярдів параметрів», «тисяча мільярдів параметрів» тощо.

Reasoning Model(Модель з високим рівнем логіки)

Зазвичай це модель, яка краще справляється з багатоступеневим мисленням, плануванням, перевіркою і виконанням складних завдань.

MCP(Протокол контексту моделі)

Новий популярний термін за останній рік, що створює універсальний інтерфейс між моделлю і зовнішніми інструментами/джерелами даних.

Fine-tuning / Tuning(Мікророзгортання / Тюнінг)

Додаткове навчання базової моделі для адаптації під конкретні завдання, стиль або галузь. У Google цей процес називають тюнінгом і вважають його частиною фінішного налаштування.

Distillation(Дистиляція)

Процес стиснення можливостей великої моделі у меншу, щоб «вчити» меншу модель від більшої.

RAG(Розширене пошукове генерування)

Практично стала базовою конфігурацією корпоративного AI. Microsoft визначає її як «пошук + LLM», використовуючи зовнішні дані для підкріплення відповідей, щоб вирішити проблему застарілих даних і невідомості приватних баз знань. Мета — базувати відповіді на реальних документах і приватних знаннях, а не лише на пам’яті моделі.

Grounding(Фактичне співвідношення)

Зазвичай разом із RAG означає, що відповіді моделі базуються на документах, базах даних, веб-сторінках і зовнішніх джерелах, а не лише на параметрах. У документах RAG Microsoft підкреслює цю цінність.

Embedding(Векторне вбудовування / Семантичний вектор)

Кодування тексту, зображень, аудіо у високовимірні цифрові вектори для обчислення семантичної схожості.

Benchmark(Бенчмарк / Тестування)

Стандартизований спосіб оцінки можливостей моделі, популярний у рейтингах для «доведення сили» моделей.

Рекомендується до читання

11 ключових питань про Lobster: найпростіше розбір принципу OpenClaw

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити