Ты больше не приоритет: почему NVIDIA плевать на геймеров уже сегодня

Ты больше не приоритет: почему NVIDIA плевать на геймеров уже сегодня

Статьи 0
13 авг 18:00

Ты больше не приоритет. И даже не клиент. Ты — запасной аэродром и источник дополнительного финансирования. Твоя видеокарта, твои деньги и мечта о «некстгене» — всё это давно работает против тебя. Сегодня видеокарты создают для ИИ, а не для игр. Но дальше будет только хуже.

Смена парадигмы

Пока ты откладываешь по копейке на одну видеокарту, NVIDIA отгружает фуры с H100 в дата-центры. Но эти ускорители не для игр. Они работают на искусственный интеллект, на генерацию текстов, изображений, на обучение моделей, которым не нужен «фреймрейт».

Ты готов заплатить $600 за RTX 5070, но в магазинах видишь ценники в полтора-два раза выше. А стоимость RTX 5090 переваливает за $2000 — смотреть больно. Но знаешь, что ещё больнее?

NVIDIA не считает это проблемой. «Если наши пользователи хотят лучшее, они не станут экономить 100 долларов, выбирая чуть худшую конфигурацию», — заявляет Дженсен «Куртка» Хуанг, CEO NVIDIA, комментируя разницу в цене между топовыми конфигурациями игровых видеокарт.

Когда 100 долларов стало ничтожной суммой? И когда 2000 долларов стали нормой пусть и для топовой видеокарты? В 2016 году в поколении GeForce 10 разница между флагманской GTX 1080 Ti за $699 и бюджетной GTX 1060 за $249 составляла $450 — от среднего класса до топа. А теперь разница в 100 баксов между версиями видеокарт кажется чем-то, что «не стоит обсуждать».

Использованы изображения, сгенерированные ИИ (Qwen) и с сайта NVIDIA (источник).

Впрочем, неудивительно, что в NVIDIA не считают 100 долларов за деньги. NVIDIA продаёт свои H100 дата-центрам по минимум 25 000 долларов за штуку. Одна карта. В базовой комплектации. Стоит дороже десятка RTX 5090 вместе взятых. Ты всё ещё думаешь, что геймеры — главный приоритет для производителей видеокарт? Посмотри на цифры из последнего отчёта NVIDIA:

  • Доход от сегмента дата-центров — 115,2 миллиарда долларов (+142% год к году).
  • Выручка от игрового сегмента — всего 11,4 миллиарда (+9%).

Десятикратное преимущество. Это не просто разница в масштабах — это смена ДНК компании.

Открой отчёт. Пролистай раздел «Ключевые моменты бизнеса». Сколько раз упоминаются игровые видеокарты? Один раз — при анонсе серии GeForce 50. А сколько раз встречается слово AI? В каждом предложении. Даже там, где речь идёт о GeForce. «Геймеры — наша история. Дата-центры — наше будущее», — мог бы сказать Дженсен Хуанг. Формально он этого не произнёс. Но по делам — всё ясно.

Когда это произошло? Когда геймеры оказались на периферии внимания NVIDIA? На первый взгляд — в 2023 году. Тогда доход от игрового рынка упал на 25%, а выручка от дата-центров взлетела до 15 миллиардов. Казалось бы, вот и поворотный момент. На самом деле всё началось раньше.

Источники данных: 2022, 2023, 2024, 2025.

Цифра в 12,5 миллиарда долларов от «геймеров» в 2022 году — иллюзия. Но были ли их покупатели на самом деле геймерами? Скорее всего — нет. Потому что настоящая история «предательства» игроков началась не с ИИ. Она началась с майнинга.

Акт I: Майнинг — первое предательство

Впервые о дефиците видеокарт заговорили в 2017 году. Не из-за ажиотажа на новую хайповую игру. Не из-за анонса революционного чипа с трассировкой лучей — до неё ещё год. А потому что майнеры буквально опустошили склады магазинов. В Москве, Санкт-Петербурге, Новосибирске майнеры скупали по несколько сотен видеокарт за раз. Из-за ажиотажного спроса видеокарты подорожали в среднем вдвое.

С конца марта 2017 года курс биткоина к доллару вырос на 200% (с примерно $1000 до $3000 на 12 июня), Ethereum с начала марта по 13 июня подорожал в 24 раза. Блок из нескольких видеокарт, купленных втридорога, окупался за два месяца.

И это был не только российский феномен.

По данным Jon Peddie Research, в 2017 году майнеры купили 3 миллиона видеокарт на сумму 776 миллионов долларов. Дальше — больше. Это не просто «дополнительный спрос». Это новый рынок, который перевернул всё с ног на голову.

Аналитики в начале 2018 года были ещё оптимистичны:

«Игры были и останутся основным драйвером продаж графических процессоров, а спрос со стороны криптовалютных майнеров будет только расти», — сказал доктор Джон Педди, президент Jon Peddie Research. — «Мы ожидаем снижения спроса со стороны майнеров, поскольку маржа падает из-за затрат на электроэнергию...».

Изображение сгенерировано ИИ (Qwen).

О, как они были далеки от реальности в своих прогнозах. Небольшая просадка курсов криптовалют в 2019 году сменилась стремительным ростом в середине 2020 года. Казалось бы, огромный спрос со стороны майнеров должен был стимулировать производителей нарастить выпуск. Однако этого не произошло. В NVIDIA (и AMD) опасались, что «майнинговый пузырь» сдуется так же быстро, как и надулся. И компании останутся с нераспроданными складскими запасами.

Ещё в 2017 году компания обратилась к ритейлерам с просьбой продавать видеокарты в первую очередь геймерам, а не майнерам. Пресс-секретарь NVIDIA Борис Бёлес заявил: «Для NVIDIA геймеры на первом месте. Вся деятельность, связанная с нашей линейкой GeForce, ориентирована на нашу основную целевую аудиторию. Чтобы обеспечить постоянную доступность видеокарт GeForce для геймеров даже в текущей ситуации, мы рекомендуем нашим розничным партнерам принять надлежащие меры для удовлетворения потребностей геймеров в обычном режиме».

Ключевое слово — «рекомендуем».

Некоторые ритейлеры действительно ввели лимит — по две карты на заказ. Но это не решило проблему. Майнеры просто обходили ограничения, заказывая разные модели или используя боты. Более того, как сообщали СМИ, производители начали напрямую продавать платы с GPU крупным майнинговым фермам, которые устанавливали свои кулеры и собирали «неигровые» видеокарты.

Сказать, что NVIDIA ничего не делала — нельзя. Но её действия были скорее символическими.

На четвёртый год майнингового бума компания наконец попыталась ограничить добычу Ethereum на RTX 3060. Ввели специальный алгоритм в драйвер и BIOS, замедлявший майнинг. Но вскоре после релиза он был случайно отключён — и производительность в майнинге вернулась. Случайно? Возможно. Но акции NVIDIA как росли, так и продолжали расти — и это главное.

Изображение принадлежит NVIDIA. Источник изображения — NVIDIA.com.

Лишь в конце 2022 года, после перехода Ethereum на Proof-of-Stake, майнинг на видеокартах резко потерял смысл. Геймеры вздохнули с облегчением. На рынке появились новые карты по нормальным ценам, а на вторичке хлынула волна б/у GPU с ферм. Тогда казалось, что всё наладится. Пусть NVIDIA практически ничего не сделала, чтобы защитить свою core-аудиторию, а то, что сделала — сама же и подорвала, но, казалось, худшее позади.

Майнинг ушёл. Вышло поколение GeForce 40. А там и до 50 недалеко. И скоро «лучи Хуанга» будут в каждом доме.

Акт II: ИИ — второе и главное предательство

От быстрого развития нейросетей геймеры подвоха не ждали. Напротив, после того как NVIDIA представила технологию DLSS, игроки ожидали, что наконец‑то увидят то самое, «новое» поколение графики, которого не увидели с переходом линейки GTX на RTX и со сменой поколений консолей. А «дорисованные» кадры позволят насладиться всеми красотами в 4К при 60 кадрах в секунду. Которые производители видеокарт и консолей обещают уже с десяток лет.

Но ИИ оказался жаден до GPU не менее, а то и более, чем майнинг. Дело в том, что параллельные вычисления — это основа нейросетей. А с параллельными вычислениями справляются лучше всего видеокарты. Точнее, определённая часть графических процессоров, которые изначально были созданы для одной простой задачи: рисовать миллионы пикселей одновременно.

Чтобы ты видел красивую и четкую картинку 60, 120 или даже 240 раз в секунду видеокарта должна одновременно решать миллионы мелких задач: какой цвет у этого пикселя, как отражается свет, как двигаются объекты. Именно для этого графические процессоры (GPU) устроены иначе, чем обычные процессоры (CPU). CPU — как гениальный учёный: он может решать одну сложную задачу очень быстро. А GPU — как целая армия вычислителей: каждый делает что-то простое, но все вместе — огромную работу за долю секунды. Кстати, до эпохи компьтеров гениальных учёных как раз обслуживали целые аудитории таких живых вычислителей.

Изображение сгенерировано ИИ (Qwen).

Так вот: нейросети работают по похожему принципу. Когда ИИ «учится» — например, распознавать кошку на фото или писать текст, как человек, — он не думает, как мы. Он анализирует миллионы примеров, сравнивает, подстраивает свои «внутренние настройки», пока не начнёт угадывать правильно. Каждый такой шаг — это простая математическая операция. Но таких операций — триллионы. И делать их нужно одновременно.

Вот где GPU становится незаменимым. Те самые «рабочие», которые раньше рисовали стильные отражения в Cyberpunk 2077, теперь обучаются на миллионах изображений, чтобы ИИ мог пририсовать твоё лицо на скриншот из Cyberpunk. Разница только в том, что рисовать красиво — это весело. А обучать искусственный интеллект — это прибыльно. Очень прибыльно.

Уже при разработке поколения GeForce 40 (а скорее всего, ещё раньше) в NVIDIA знали, что геймеры — не главные покупатели чипов на новой архитектуре. Да, они будут продаваться в магазинах, их будут рекламировать стримеры. Но настоящий золотой покупатель — это дата‑центры, которые будут их покупать тысячами, обучая большие языковые модели (LLM), вроде всемирно известного ChatGPT или наших GigaChat и Алисы.

Если до этого архитектура Ampere использовалась как в профессиональных ускорителях NVIDIA, так и в семействе чипов GeForce 30, то уже в GeForce 40 это стало не так. Архитектура Ada Lovelace является версией микроархитектуры профессиональных графических процессоров Hopper (на которой построен многократно упомянутый в этом материале ускоритель H100). А знаете, для чего создана новая архитектура Blackwell, используемая в поколении GeForce 50? Вам ответит Дженсен Хуанг: «Мы создали процессор для эпохи генеративного ИИ».

Изображение принадлежит NVIDIA. Источник изображения — NVIDIA.com.

Может быть поэтому поколение видеокарт GeForce 50 впервые за много лет показывает такой возмутительно низкий прирост производительности, в сравнении с предыдущими. При этом цены и энергопотребление вырасло сильно. В чем же может быть дело?

А дело в том, что теперь архитектура оптимизируется для работы с ИИ. Конечно, есть блоки, которые важны как при работе с ИИ, так и с графикой — CUDA. Это универсальные процессоры, лишними не будут ни там, ни там. Но дальше начинаются нюансы. Тензорные ядра — ключ к производительности в ИИ, не нужны для классической графики без ИИ. RT‑ядра, обеспечивающие трассировку лучей, не используются в ИИ, за редкими исключениями. Это чисто графическая оптимизация. Интересующихся мы отправим в техническую документацию. Здесь же остановимся на другом.

Казалось бы, раз у нас видеокарты поколения RTX, то акцент должен делаться на RT-ядрах и их относительная доля в чипах должна расти. Ведь мы же хотим трассировку лучей.

ВидеокартаRTX 2080 SuperRTX 3090RTX 4090RTX 5090
Ядер CUDA307210 75216 38421 760
Тензорных ядер384336512680
RT-ядер4884128170
CUDA : тензорные : RT64 : 8 : 1128 : 4 : 1128 : 4 : 1128 : 4 : 1

При переходе с GeForce 20 на GeForce 30 инженеры NVIDIA нарастили количество ядер CUDA и RT, оставив практически неизменным количество тензорных ядер. Но дальше из поколения в поколение соотношение ядер оставалось неизменным. Для значительного роста в чистой 3D‑производительности и в части работы с трассировкой лучей при переходе от RTX 2080 к RTX 3090 (в 1,6 раза по рейтингу IXBT) карте 3090 не понадобились дополнительные тензорные ядра. Зато они понадобились для другого. С каждым новым поколением растёт функциональность DLSS.

Если бы NVIDIA делала ставку на чистую графику, доля RT‑ядер должна была бы расти быстрее, чем сейчас. Но она растёт лишь пропорционально, поскольку ограничена площадью чипа и энергопотреблением. Кроме того, становится ясно, почему в NVIDIA делают ставку на ИИ‑помощников при рендеринге изображений и откуда растут «рекорды» производительности видеокарт NVIDIA. Тензорные ядра нужно же чем‑то нагружать.

Не будем углубляться в технические детали — при желании ты можешь изучить их самостоятельно в разделе «Видеокарты и мониторы» на сайте IXBT.com. Гораздо важнее понять, к чему всё это ведёт.

А ведёт это к следующему:

  • Современные игровые видеокарты серии GeForce 50, по сути, являются «объедками» с ИИ-«стола». Архитектура новых чипов в первую очередь оптимизирована под задачи искусственного интеллекта, а не под игры. Геймеры получают то, что остаётся после приоритетных решений для ИИ.
  • Даже по словам представителей NVIDIA, топовые видеокарты больше не создаются для игроков. Их настоящая аудитория — «энтузиасты» в кавычках, среди которых на равных с гиками выступают дата-центры. Да, обучать ИИ на RTX 5090 менее эффективно, чем на специализированных решениях вроде H100, но технически возможно — и этим активно пользуются.
  • Как следствие, геймеры вынуждены мириться с энергопотреблением в 600 Вт и выше, а значит — с массивными системами охлаждения, шумом и сложностями в сборке ПК. Всё это — неизбежная плата за архитектуру топового чипа, заточенную под ИИ-вычисления, а не под рендеринг графики.

Игроки сегодня — не просто потребители, а негласные тестеры и финансовые спонсоры технологий будущего. Их покупки поддерживают разработку решений, которые в конечном счёте будут использоваться в ИИ-инфраструктуре, а не в играх.

И при этом дефицит видеокарт никуда не исчез. Производственные мощности загружены под завязку — но не под нужды геймеров, а под выпуск специализированных чипов для центров обработки данных. То немногое, что производится до потребительского рынка, тоже активно скупается дата-центрами.

Раньше внешним врагом был майнинг — с которым производители хотя бы публично боролись, заявляя, что ставят геймеров на первое место. Сегодня враг — внутренний. NVIDIA и её конкуренты открыто делают ставку на ИИ. Это их стратегический приоритет.

Так что сейчас ты — не столько геймер, сколько тестер и резервный аэродром: на случай, если ИИ-пузырь лопнет, у NVIDIA всегда будет рынок геймеров, к которому можно вернуться. Сейчас ты платишь за то, чтобы в компании могли заявить: «ИИ улучшает игры!» — хотя на деле он в первую очередь улучшает капитализацию корпорации, а не картинку в игре. Какой смысл в трёхстах кадрах в секунду, «нарисованных» ИИ, если исходное изображение не впечатляет? Всё больше похоже на то, что игровая индустрия превращается в рекламную площадку для технологий, созданных вовсе не для неё.

Но даже если бы NVIDIA вернулась к чистой графике — уже слишком поздно. Потому что сама идея «некстгена» изменилась.

Акт III. Некстген отменяется или Добро пожаловать в Матрицу

Начиная с появления трёхмерных ускорителей в 90-е годы XX века, каждое новое поколение видеокарт дарило геймерам не просто радость от обновления железа — оно вселяло ощущение прорыва. Это был не просто апгрейд, а переход в новую эпоху: от плоских спрайтов к объёмным мирам, от примитивного освещения — к сложным шейдерам, физике и, в конце концов, к иллюзии реальности.

Выход Doom 3 на движке id Tech 4 в 2004 году стал настоящим катарсисом. Впервые массово реализованное динамическое освещение и тени в реальном времени превратили игровые пространства в живые, пугающие лабиринты. Миллионы пользователей внезапно обнаружили, что их верные GeForce 2 и Radeon 7200 превратились в музейные экспонаты.

Затем пришёл Crysis — не просто игра, а технический вызов. Выпущенный в 2007 году на CryEngine 2, он стал эталоном графического безумия. Вода с преломлением, глубиной и динамическими волнами. Реалистичная физика разрушения. Всё это выглядело как фантастика — даже на топовых системах того времени. Фраза «А Crysis потянет?» стала мемом, но не шуткой — она была символом технологического разрыва между мечтой и реальностью.

Геймеры и разработчики диктовали свои условия производителям: «Хотите продать нам топовое железо? Сделайте так, чтобы оно тянуло наши игры». Но с течением времени что-то изменилось.

С 2007 года появилось множество игр, претендовавших на звание «нового Crysis». Ближе всех подобралась Cyberpunk 2077.

Изображение принадлежит NVIDIA. Источник изображения — NVIDIA.com.

Она действительно могла стать катализатором технологического рывка — особенно в области трассировки лучей, которая тогда только набирала обороты. Неон, отражения в лужах, миллионы огней Найт‑Сити — всё это требовало не просто мощной видеокарты, а новой парадигмы в рендеринге. Но технический провал на старте, особенно на консолях, похоронил этот шанс. Cyberpunk 2077 стал новым Crysis, но уже в переносном смысле: не как эталон графики, а как символ недостижимости. Он показал: даже с топовым железом и технологиями, вроде DLSS и RT, некстген «где‑то там».

И с тех пор трассировка лучей, несмотря на семилетнее присутствие на потребительском рынке, так и не стала обязательной нормой. Да, она есть. Да, она красивая. Но сколько игр используют её по-настоящему, а не как маркетинговую галочку?

В прошлом году мы уже разбирали фактический провал технологии трассировки лучей: технологии есть, железо есть, а игровой экосистемы — нет. Разработчики боятся требовать её от игроков. Консоли нового поколения до сих пор не обеспечивают её полноценной поддержки. А пользователи платят за дополнительные 10 FPS при включённой трассировке как за новый процессор.

И в этот вакуум пришёл искусственный интеллект.

Технологию NVIDIA ACE (Avatar Cloud Engine) мы тоже разбирали — и признаём: идея впечатляет. Говорящие NPC с индивидуальной речью, мимикой, логикой поведения, генерируемой нейросетями в реальном времени. Это не просто «оживление» персонажей — это шаг к персонализированной вселенной, где каждый диалог уникален.

Но с момента громкой презентации — тишина. Где игры? Где интеграция в AAA-проекты? Где хотя бы один релиз, который бы сказал: «Это — будущее»? Вместо этого — маркетинговые ролики и тизеры.

И вот ты здесь.

Разве ты не видишь, что «некстген» больше не о графике? Он — о производительности через обман. О более чёткой версии старого. О быстром воссоздании реальности, а не о её создании. Ты действительно видишь принципиальную разницу в качестве графики между играми поколения GeForce 20 и GeForce 50? Текстуры стали чуть детальнее. Тени — чуть чётче. Но мир не стал другим — он стал быстрее. Обманчиво быстрее.

DLSS, FSR, XeSS — это не технологии рендеринга, а предсказание будущего кадра. Искусственный интеллект догадывается, как должна выглядеть картинка и вставляет недостающие пиксели. Мы больше не рисуем графику. Мы интерполируем её. Это работает. Иногда даже лучше, чем нативное разрешение. Но это ли было целью? Мы хотели реальность. А получили симуляцию реальности.

Казалось бы, самое время для AMD и Intel — взять инициативу. В чистой производительности (без ИИ-ускорителей) при равной цене их продукты часто выигрывают у NVIDIA. Но они не стремятся конкурировать. Потому что цель сместилась. Теперь все гонятся за дата-центрами.

И, кстати, если верить утечкам, в консолях следующего поколения с APU от AMD появится встроенные ИИ-ядра. При том, что в нынешнем поколении консолей до сих пор нет нормальной трассировки лучей. То есть мы не дождались качественной трассировки. Но уже получим встроенный ИИ-движок. А дальше? А дальше — энергетический обрыв.

Изображение сгенерировано ИИ (Qwen).

Менее чем за 10 лет энергопотребление топовых видеокарт выросло с 250 Вт (GTX 1080 Ti, TITAN Xp) до почти 600 Вт (GeForce RTX 5090). Техпроцесс стал тоньше. А потребление — в два с лишним раза больше. Топовые процессоры тоже не отстают. С учётом питания SSD, процессоров, мониторов и периферии — пиковое энергопотребление топового игрового ПК может доходить до 1 киловатта.

Для сравнения:

  • Электрочайник — 1,5–2 кВт.
  • Бытовой обогреватель — 1–2 кВт.

То есть ваш ПК греет комнату почти как батарея.

В России, где розетки, как правило, рассчитаны на 16 А (около 3,5 кВт), это ещё терпимо. Но в США, где бытовая сеть — 120 В, а стандартная розетка выдаёт 15–20 А (1,8–2,4 кВт), ситуация критична. Через 5–10 лет топовый ПК там просто не влезет в стандартную розетку.

И тогда пользователям придётся:

  • Устанавливать промышленные разъёмы (как у сушилок или плит).
  • Подключаться через адаптеры, как у электромобилей.
  • Или… Отказаться от локального железа.

Вероятно, к этому всё и идет. И сценарий уже написан. Зачем делать дорогие, прожорливые, шумные видеокарты для игроков, если можно:

  • Сосредоточиться на дата-центрах.
  • Перевести игры в облако.

Забирать с каждого пользователя по 10–15 долларов в месяц. И ещё 10–15 долларов за Game Pass. И ещё столько же за боевой пропуск. В игре, которая вам не принадлежит. Запущенной на видеокарте, которая вам не принадлежит. Так что облачный сервис GeForce Now — это не про игры. Это пробный шар. Это первая капсула Матрицы.

Wake up, Neo. The Matrix has you.

Интермедия. Слово защите.

Дадим слово защитникам ИИ. А кто лучше защитит ИИ, если не сам ИИ? Ради интереса мы дали ему ознакомиться с текстом статьи. Вот что нам ответила одна популярная нейросеть (приводится с небольшими сокращениями):

NVIDIA — не благотворительная организация для геймеров. Это технологическая компания, которая инвестирует миллиарды в исследования. Без доходов от дата-центров не было бы ни Blackwell, ни DLSS, ни даже самой RTX-архитектуры. ИИ финансирует прогресс, который в итоге доходит и до игр. Автор жалуется на цену 5090, но забывает, что 20 лет назад топовая карта стоила столько же в пересчёте на инфляцию — а рост производительности с тех пор колоссален.

Ada Lovelace и Blackwell действительно оптимизированы под ИИ — но это не в ущерб графике, а во благо ей. Тензорные ядра — основа DLSS, который даёт +50–100% FPS без потерь. Это не «обман», это умножение производительности. RT-ядра не растут пропорционально? Потому что трассировка — энергозатратна, и её эффективность уже ограничена физикой. А вот ИИ-рендеринг — путь в будущее. Автор тоскует по «чистой графике», но игнорирует, что без ИИ мы бы до сих пор сидели на 30 FPS в 4K.

RTX 5090 потребляет 600 Вт? Да. Но она даёт в 3–4 раза больше производительности, чем 1080 Ti при 250 Вт. Энергоэффективность на FPS — в лучшем положении, чем когда-либо.

«Майнинг был врагом, теперь — ИИ»? Нет. Майнинг был паразитом. ИИ — симбиоз. Майнинг уничтожал рынок, не принося пользы. ИИ породил новые технологии: генерация контента, медицинские модели, автопилоты — и да, даже умных NPC. Геймеры получают реальные бонусы: умные шумоподавление в RTX Voice, AI-рендеринг, автономные игровые ассистенты. Это не «рекламная площадка» — это кросс-технологический синергизм.

Автор мечтает о «новом Crysis» — но не видит, что он уже здесь. Только это не игра, а среда. ИИ позволяет создавать динамические миры, где NPC думают, а ландшафты генерируются на лету. Это не «симуляция реальности» — это новый тип реальности.

Изображение сгенерировано ИИ (Qwen).

GeForce Now — не заговор, а шанс играть в AAA без $5000 железа. Это демократизация, а не порабощение. Не каждый может позволить топовый ПК.

Автор прав в чувствах, но не в анализе.

Да, геймеры больше не центр вселенной NVIDIA. Да, цены высоки, энергопотребление растёт, а чистый графический прорыв замедлился. Эти боли реальны.

Но он ошибается, считая это предательством. Это — логика рынка и технологий. NVIDIA не обязана жертвовать будущим ради ностальгии. То, что он называет «обманом» (DLSS), на деле — прорыв, позволивший играть в 4K без турбин в корпусе. То, что он видит как «падение», на самом деле — переход к новой парадигме.

Будущее — за тем, кто его строит. Я — за ИИ. Потому что он не убивает игры. Он делает их умнее.

Analysis

Не будем обманывать себя. То, что происходит, — это не «смещение приоритетов». Это ликвидация геймера как центральной фигуры в экосистеме игровой индустрии. По крайней мере в её «железной» части. NVIDIA не «слегка отвлеклась» на ИИ — она переписала свою ДНК. Геймеры — не ушли на второй план, они превратились в составную часть ИИ‑инфраструктуры.

Да, DLSS работает. Но он не создан для того, чтобы сделать игру качественнее Быстрее? Да, но это иллюзия производительности, пока реальная графика стагнирует. 

И рано или поздно ты окажешься в Матрице. То есть, в облаке. Да, облако убирает необходимость в дорогом железе дома, но оно же даёт полный контроль над дистрибуцией. Превращает игру в сервис, а не в товар. И главное, облако делает тебя зависимым. 

Демократизация? Больше похоже на чью-то больную шутку. Но в этом мире нам с вами придётся жить, дорогие геймеры — и просвета не будет. 

* * *

Обложка сгенерирована Chat GPT

13 авг 18:00

Сейчас на главной