Скануйте, щоб завантажити додаток Gate
qrCode
Більше варіантів завантаження
Не нагадувати сьогодні
Результати пошуку для "SFT"
04:28
🔥Майнінг стартапів триває: $UNIO, $SFT, $X, $CYCON, $CYRUS, $CROS ✅$UNIO Майнінг підтримує $UNIO та $USDT Майнінговий пул, $UNIO Майнінговий пул має річну дохідність до 1898.32%; ✅$SFT майнінг підтримує басейни $SFT та $ETH, річний дохід від $SFT майнінгу може сягати до 518.2%; ✅Середньорічний дохід від видобутку X становить до 508.06%; ✅$CYCON майнинг підтримує $CYCON і $GT Майнінговий пул, річна прибутковість $CYCON Майнінговий пулу становить до 596,86%. ✅$CYRUS二期Майнінг, Річна процентна ставка高达282.41%; ✅$CROSМайнінг підтримує $CROS та $BTCМайнінговий пул, $CROSМайнінговий пулРічна процентна ставка高达576.19%; 💰 Мій зараз: https://www.gate.io/zh/startup-mining
X-2.75%
  • 5
  • 6
08:30
У другій половині дня 12 січня 2024 року відбувся офіційний старт першого інноваційного форуму SFT. Під час зустрічі засновники zCloak Network та Solv Protocol спільно оголосили, що офіційно стали стратегічними партнерами. У листопаді 2023 року DESFT, проєкт, спільно розроблений та інкубований zCloak і Solv, був помічений на Сінгапурському фестивалі фінтеху, який спільно підтримується Грошово-кредитним управлінням Сінгапуру (MAS) і Центральним банком Гани, який має на меті допомогти мікро-, малим і середнім підприємствам (ММСП) у регіонах, що розвиваються, брати участь у міжнародній торгівлі за допомогою корпоративної цифрової ідентифікації, цифрових облікових даних і ERC3525 технологій, а також отримувати справедливі, точні та доступні фінансові послуги в транскордонній діяльності цифрової економіки. Завдяки поглибленому співробітництву в проекті DESFT обидві сторони погодилися, що доказ з нульовим розголошенням, технологія цифрової ідентифікації zCloak і стандарт ERC-3525 протоколу Solv мають дуже хорошу взаємодоповнюваність, сильне поєднання в розробці практичних застосувань і широкий інноваційний простір. Для того, щоб краще вивчити шлях токенізації реальних активів, обидві сторони офіційно встановили ділове стратегічне партнерство для спільного розширення майбутнього технічного співробітництва та сценаріїв комерційного десанту.
03:59
Згідно зі звітом TechWeb 19 вересня, вітчизняна авторитетна система оцінки Flag_ (Libra) оголосила результати оцінки останніх великих моделей у вересневому списку. На основі останнього набору даних суб’єктивної оцінки CLCC v2.0 Вересневий список Flag_ (Libra) фокусується на оцінці 7 моделей діалогу з відкритим кодом, які нещодавно стали популярними. Судячи із загальних результатів, Baichuan2-13 b-chat, Qwen-7 b-chat і Baichuan2-7 b-chat є одними з найкращих із показниками точності понад 65%. У списку базових моделей результати об’єктивної оцінки Baichuan 2, Qwen, InternLM і Aquila перевершили моделі Llama і Llama2 того самого рівня параметрів. У списку моделей SFT Baichuan 2-13 B-chat, YuLan-Chat-2-13 B і AquilaChat-7 B займають першу трійку. В обох списках об’єктивної оцінки Baichuan 2 показав чудову продуктивність, а тест базової моделі перевершив Llama 2 як у китайській, так і в англійській мовах. Повідомляється, що Flag_ (Libra) — це велика система оцінки моделей і відкрита платформа, запущена Пекінським дослідницьким інститутом штучного інтелекту Чжиюань. Вона спрямована на встановлення наукових, справедливих і відкритих критеріїв оцінки, методів і наборів інструментів, щоб допомогти дослідникам у комплексній оцінці основних моделей і Виконання навчальних алгоритмів. Позначка_ Велика система оцінювання мовної моделі наразі включає 6 основних завдань оцінювання, майже 30 наборів даних оцінювання та понад 100 000 оціночних питань.
07:30

Shizhi AI: офіційно запущено нейтральну та відкриту платформу спільноти wisemodel з відкритим вихідним кодом

Команда Wise AI оголосила про офіційний запуск нейтральної та відкритої платформи спільноти з відкритим кодом AI (wisemodel.cn). Згідно з повідомленнями, метою платформи є збір широко використовуваних моделей ШІ з відкритим кодом, наборів даних та інших ресурсів у країні та за кордоном для створення нейтральної та відкритої інноваційної платформи ШІ з відкритим кодом. Наразі доступні моделі Tsinghua/Zhipu chatglm2-6 B, Stable Diffusion V1.5, alphafold2, безшовні m4t large та інші, а також shareGPT, ultrachat, moss-sft та інші набори даних.
Більше
12:23
Згідно зі звітом 36Kr від 6 вересня, команда Wise AI оголосила про офіційний запуск нейтральної та відкритої платформи спільноти з відкритим кодом AI (wisemodel.cn). Згідно з повідомленнями, метою платформи є збір широко використовуваних моделей ШІ з відкритим кодом, наборів даних та інших ресурсів у країні та за кордоном для створення нейтральної та відкритої інноваційної платформи ШІ з відкритим кодом. Наразі доступні моделі Tsinghua/Zhipu chatglm2-6 B, Stable Diffusion V1.5, alphafold2, безшовні m4 t large та інші, а також shareGPT, ultrachat, moss-sft та інші набори даних.
07:58
Згідно зі звітом Xinzhiyuan від 5 вересня, останнє дослідження команди Google пропонує використовувати великі моделі для заміни людей для анотації переваг, тобто навчання з посиленням зворотного зв’язку AI (RLAIF). Було виявлено, що RLAIF може створити порівняльні покращення з RLHF, не покладаючись на людські анотатори, з відсотком виграшу 50%. У той же час дослідження Google ще раз довели, що RLAIF і RLHF мають коефіцієнт виграшу понад 70% порівняно з контрольованим тонким налаштуванням (SFT).
03:08
Згідно зі звітом Heart of the Machine від 1 вересня, лабораторія Data Intelligence and Social Computing Laboratory (FudanDISC) Університету Фудань випустила китайського персонального помічника з питань охорони здоров’я – DISC-MedLLM. Під час однораундового оцінювання медичних і медичних консультацій у формі запитань і відповідей і багатораундового діалогу ефективність моделі показує очевидні переваги порівняно з існуючими великими моделями медичного діалогу. Крім того, дослідницька група також випустила високоякісний набір даних контрольованої тонкої настройки (SFT) із 470 000 – DISC-Med-SFT, а параметри моделі та технічні звіти також були відкритими.
05:33
Відповідно до «серця» машини, дві великі моделі з лабораторії Stability AI і CarperAI: FreeWilly 1 і FreeWilly 2 перевершили Llama-2-70b-hf, випущену Meta три дні тому, 22 числа, і успішно досягли вершини таблиці лідерів Open LLM HuggingFace. FreeWilly 2 також переміг ChatGPT (GPT-3.5) за багатьма тестами, ставши першою моделлю з відкритим кодом, яка справді може конкурувати з GPT-3.5, чого Llama 2 не зробила. FreeWilly 1 побудовано на основі оригінальної базової моделі LLaMA 65B і ретельно контрольованого тонкого налаштування (SFT) з використанням нового синтетичного набору даних у стандартному форматі Alpaca. FreeWilly2 базується на останній базовій моделі LLaMA 2 70B.
05:43
Відповідно до «серця» машини, дві великі моделі від Stability AI і лабораторії CarperAI: FreeWilly 1 і FreeWilly 2 перевершили Llama-2-70 b-hf, випущену Meta три дні тому, і успішно досягли вершини таблиці лідерів Open LLM HuggingFace. Більше вражає те, що FreeWilly 2 також переміг ChatGPT (GPT-3.5) у багатьох тестах, ставши першою моделлю з відкритим вихідним кодом, яка справді може конкурувати з GPT-3.5, чого не вдалося Llama 2. FreeWilly 1 побудовано на основі оригінальної базової моделі LLaMA 65 B і ретельно контрольованого тонкого налаштування (SFT) з використанням нових синтетичних наборів даних у стандартному форматі Alpaca. FreeWilly2 базується на останній базовій моделі LLaMA 2 70 B.
14:48
Odaily Planet Daily News Meta випустила мультимодальну мовну модель CM3leon. CM3leon — це багатомодальна мовна модель із розширеним пошуком, заснована на маркерах і лише з декодером, здатна генерувати та заповнювати текст і зображення. CM3leon — це перша мультимодальна модель, навчена за допомогою рецепту, адаптованого з моделі мови простого тексту, що складається з великомасштабного етапу попереднього навчання розширення пошуку та другого етапу багатозадачної контрольованої тонкої настройки (SFT). Як загальна модель, він може виконувати генерацію тексту в зображення та зображення в текст, уможливлюючи впровадження незалежних контрастних методів декодування, які створюють високоякісний результат.
Завантажити більше
Популярні теги

Гарячі теми

Більше

Криптокалендар

Більше
DevConnect в Буенос-Айресі
COTI візьме участь у DevConnect у Буенос-Айресі з 17 по 22 листопада.
2025-11-21
Розблокування Токенів
Hyperliquid розблокує 9,920,000 HYPE токенів 29 листопада, що становить приблизно 2.97% від наразі обігового постачання.
2025-11-28
Зустріч в Абу-Дабі
Helium проведе мережеву подію Helium House 10 грудня в Абу-Дабі, яка позиціонується як прелюдія до конференції Solana Breakpoint, запланованої на 11–13 грудня. Одноденна зустріч зосередиться на професійному мережуванні, обміні ідеями та обговореннях у рамках екосистеми Helium.
2025-12-09
Оновлення Хаябуси
VeChain оголосила про плани оновлення Hayabusa, запланованого на грудень. Це оновлення має на меті значно поліпшити як продуктивність протоколу, так і токеноміку, що позначає, за словами команди, найбільш орієнтовану на утиліту версію VeChain на сьогодні.
2025-12-27
Лайтвальт Захід сонця
Фонд Litecoin оголосив, що додаток Litewallet офіційно припинить свою роботу 31 грудня. Додаток більше не підтримується активно, лише критичні виправлення помилок будуть вирішені до цієї дати. Чат підтримки також буде призупинено після цього терміну. Користувачі заохочуються переходити на Гаманець Nexus, при цьому надаються інструменти для міграції та покрокова інструкція в Litewallet.
2025-12-30