Токенизированные AI-модели: Кто зарабатывает на open source?

Pavel Krylov · 25.01.2026, 20:17:13

Токенизированные AI-модели: Кто зарабатывает на open source?


Автор: Pavel Krylov | AI Economics Researcher | Бывший ML Lead в Yandex

Meta потратила сотни миллионов на обучение Llama. Затем они отдали её бесплатно. Stability AI сжигала инвесторские деньги, создавая Stable Diffusion, затем open-sourced её. Mistral подняла €400 миллионов, выпустила свои модели открыто.

Паттерн сбивает с толку. Зачем тратить состояния на создание чего-то, затем отдавать? Кто реально зарабатывает на open-source AI? И может ли токенизация полностью изменить экономику?

Парадокс open-source AI

Позвольте честно отобразить текущий ландшафт.

Big tech выпускает открытые модели как конкурентное оружие. Llama от Meta угрожает OpenAI и Google. Если открытые модели "достаточно хороши", зачем платить за GPT-4? Meta не нуждается в AI-выручке напрямую — им нужны AI-способности для рекламы, Метавселенной и удержания разработчиков в своей экосистеме.

Стартапы open-source'ят для построения репутации. Mistral, Hugging Face, EleutherAI — они получают влияние, талант и eventual пути монетизации через открытую работу. Модель бесплатна; консалтинг, enterprise-поддержка и hosted-сервисы — нет.

Исследователи open-source'ят из-за научных норм. Академическая культура ожидает публикации. Открытые модели получают цитирования, коллаборации и карьерное продвижение. Стимулы репутационные, не финансовые.

Но вот неудобная правда: большинство индивидуальных контрибьюторов не получают ничего. Исследователь, который улучшает модель, инженер, который оптимизирует инференс, член сообщества, который находит баги — они контрибьютят ценность, но не захватывают ничего из неё.

Куда ценность реально течёт

Следи за деньгами в open-source AI.

Облачные провайдеры зарабатывают огромно. AWS, Google Cloud, Azure хостят открытые модели и берут за compute. Они контрибьютят относительно мало, но захватывают массивную ценность от inference-трафика. Создатели моделей не получают ничего от этой выручки.

Аппаратные компании выигрывают. NVIDIA продаёт больше GPU, потому что открытые модели демократизируют AI-разработку. Больше разработчиков означает больше спроса на compute. Они — торговцы оружием в этой золотой лихорадке.

Компании, использующие модели, захватывают ценность. Стартапы строят продукты на Llama, берут с клиентов, не платят Meta ничего. Такова лицензия — но это означает, что созданная ценность течёт в application layer, не в model layer.

Агрегаторы и платформы выигрывают. Hugging Face хостит модели, строит сообщество, захватывает внимание. Они подняли $235 миллионов при оценке $4.5 миллиарда в основном от хостинга чужой работы.

Люди, которые реально строят модели? В основном зарплаты и репутация. Иногда equity в успешных компаниях. Но никакого прямого участия в ценности, которую их модели создают downstream.

Токенизационный тезис

Вот где крипта входит в разговор.

Что если контрибьюторы моделей могли бы владеть токенами, представляющими их контрибуцию? Что если эти токены захватывали бы ценность от использования модели? Что если open-source AI имел бы нативные экономические стимулы?

Базовый механизм: минтим токены, представляющие доли владения в модели. Контрибьюторы зарабатывают токены пропорционально своей контрибуции. Холдеры токенов получают выручку от использования модели — комиссии за инференс, fine-tuning, лицензирование. Ценность течёт обратно к создателям.

Это не теоретически. Проекты вроде Bittensor, Ocean Protocol и различные AI DAO экспериментируют с этими механизмами. Execution ранний, но концепт тестируется.

Как это могло бы работать технически

Позвольте набросать правдоподобную архитектуру.

Отслеживание контрибуций использует криптографическую attestation. Каждый training run, каждая fine-tuning контрибуция, каждое добавление датасета записывается с подписями контрибьюторов. Провенанс on-chain и верифицируемый.

Аллокация токенов следует метрикам контрибуции. Контрибьютнутый compute, предоставленные данные, улучшения, измеренные по бенчмаркам — различные метрики могут определять распределение токенов. Формула будет governance-controlled и прозрачной.

Захват выручки происходит на инференсе. Каждый API-вызов, каждое скачивание модели, каждое коммерческое использование триггерит маленькую комиссию. Комиссии текут в смарт-контракт, который распределяет холдерам токенов пропорционально.

Governance через голосование токенами. Холдеры токенов решают направление модели, условия лицензирования, структуры комиссий, какие контрибуции квалифицируются. Децентрализованный контроль над коллективно-владеемым активом.

Модель становится цифровым кооперативом. Контрибьюторы — члены. Использование генерирует выручку. Выручка течёт к членам. Экономика open source переворачивается.

Проблемы реальны

Я не наивен насчёт вызовов.

Атрибуция реально сложна. Как оценить training dataset против architectural insight против optimization trick? Измерение контрибуции не решено в традиционном open source, не говоря уже для AI.

Проблемы free-rider'ов persist. Если можешь использовать модель не платя, зачем платить? Открытые модели могут быть скачаны и запущены локально, обходя любой механизм комиссий. Enforcement требует либо технических ограничений, либо социальных норм.

Спекуляция токенами искажает стимулы. Если токены торгуются на спекуляции, а не на fundamentals, экономические сигналы коррумпируются. Контрибьюторы могут оптимизировать на цену токена, а не на качество модели.

Юридическая неопределённость значительна. Токены AI-моделей — securities? Даёт ли владение токенами права интеллектуальной собственности? Юридический фреймворк ещё не существует.

Governance в масштабе проваливается. Мы видели это с DAO — meaningful participation сложен, плутократия эмерджит, решения становятся медленными. Применение этого к быстро-эволюционирующей AI-разработке кажется проблематичным.

Что реально строится

Несмотря на вызовы, эксперименты идут.

Bittensor запускает сеть, где "майнеры" контрибьютят AI-способности и зарабатывают токены TAO. Это больше про инференс, чем про обучение, но демонстрирует токенизированную AI-координацию. Текущая рыночная капитализация более $3 миллиардов — реальные деньги, валидирующие тезис.

Ocean Protocol позволяет токенизацию данных. Data-провайдеры минтят токены, представляющие датасеты, зарабатывают, когда данные используются для обучения. Это инфраструктура для токенизированных AI-inputs, не моделей напрямую.

Различные "AI DAO" формируются. Коллективно-финансируемое обучение моделей с token-based governance. Большинство — маленькие эксперименты, но они тестируют механизмы.

Render Network и похожие проекты токенизируют контрибуции compute. Не совсем владение моделями, но связанная инфраструктура — ты можешь владеть токенами, представляющими GPU-контрибуцию в AI-нагрузки.

Экосистема фрагментирована и экспериментальна. Ничто не достигло масштаба. Но building blocks собираются.

Моя честная оценка

Куда я думаю это реально идёт?

Токенизированные модели не заменят традиционный open source. Frictionless природа реально бесплатных моделей слишком ценна. Llama без токенов всегда будет существовать рядом с токенизированными альтернативами.

Но токенизация создаёт новый tier. Премиальные модели с компенсацией контрибьюторов. Выше качество, потому что стимулы align'ятся. Коммерческие пользователи, которые хотят платить справедливо, контрибьютят sustainability в экосистему.

Токенизация данных может иметь значение больше, чем токенизация моделей. Бутылочное горлышко training data реально. Если контрибьюторы данных могли бы зарабатывать от AI, обученного на их данных, это разблокирует датасеты, сейчас запертые. Юридические битвы за training data могут быть решены экономически, а не юридически.

Токенизация compute уже работает. Render, Akash, io.net — функциональные рынки для контрибьютнутого compute. Это доказанный wedge в токенизированную AI-инфраструктуру.

Полное видение — contributor-owned AI-модели, генерирующие выручку для всех участников — годы вдали и может никогда полностью не прийти. Но частичные имплементации, решающие специфические проблемы? Они происходят сейчас.

Больший вопрос

Вот что заставляет меня думать об этом пространстве.

AI становится самой экономически значимой технологией в человеческой истории. Созданная ценность будет измеряться в триллионах. Кто захватывает эту ценность — имеет огромное значение.

Текущая траектория концентрирует ценность в нескольких крупных компаниях. OpenAI, Google, Meta, Anthropic — они строят модели, захватывают выручку, нанимают талант. Все остальные получают использовать инструменты и конкурировать за крохи.

Токенизация предлагает альтернативный путь. Распределённое владение. Компенсация контрибьюторов. Ценность, текущая к тем, кто её создаёт. Это не гарантировано работает, но это стоит пробовать.

Open source революционизировал софт, обеспечив коллаборацию без централизованного контроля. Токенизированный AI мог бы сделать то же самое для машинного обучения — коллаборация с экономическим участием.

Я не знаю, успешно ли это видение. Но я знаю, что текущая модель — где контрибьюторы работают бесплатно, пока платформы захватывают миллиарды — не sustainable и не справедлива. Что-то должно измениться. Токенизация может быть частью ответа.

Pavel Krylov исследует AI-экономику и механизмы стимулов. Ранее он возглавлял машинное обучение в Yandex и консультирует несколько токенизированных AI-проектов. Он имеет PhD по экономике от МГУ.

#Crypto


Похожие записи

DAO governance: Why voting doesn't work
Restaking: Risks and opportunities post-EigenLayer
Прокрутите вниз для загрузки следующего материала