Google Trillium TPU и Axion: Как "AI Hypercomputer" от Google бросает вызов NVIDIA и Intel в эре инференса

Google Trillium TPU и Axion: Как «AI Hypercomputer» от Google бросает вызов NVIDIA и Intel в эре инференса

Содержание скрыть

Мета-описание: Google Trillium TPU v6e и Axion CPU революционизируют рынок ИИ-инфраструктуры. Анализ вертикальной интеграции Google и стратегический вызов доминированию NVIDIA в эру инференса ИИ.


Эра инференса: почему все изменилось

Индустрия искусственного интеллекта переживает фундаментальный сдвиг. Если раньше основные инвестиции направлялись на тренировку моделей, то сегодня критический фокус переместился на инференс ИИ — обслуживание этих моделей в режиме реального времени для миллионов пользователей. Агентные рабочие процессы, требующие тесной координации между универсальными вычислениями и машинным обучением, создают новые требования к инфраструктуре.

В 2024 году Google продемонстрировал свою стратегию доминирования: в мае был анонсирован Trillium TPU v6e — шестое поколение Tensor Processing Unit, а в апреле представлен Axion CPU — первый процессор Google на базе архитектуры Arm. Это не просто очередной апгрейд железа. Это манифест стратегии вертикальной интеграции, где Google противопоставляет свою экосистему AI Hypercomputer фрагментированному подходу конкурентов, зависящих от чипов NVIDIA и процессоров Intel.

Google Trillium TPU v6e и Axion CPU революционизируют рынок ИИ-инфраструктуры
Источник: Сгенерировано Gemin

По данным IDC, клиенты AI Hypercomputer достигли 353% трехлетней ROI, на 28% снизили IT-затраты и получили на 55% более эффективные IT-команды. Anthropic, создатель модели Claude и прямой конкурент Google в области больших языковых моделей, объявил о планах масштабирования на инфраструктуре Google TPU, что красноречиво свидетельствует: даже конкуренты признают превосходство интегрированного подхода в соотношении цена-производительность.

Trillium TPU v6e: Шестое Поколение Меняет Правила Игры

Цифры, которые впечатляют

Google Trillium TPU демонстрирует радикальный скачок производительности по сравнению с предыдущим поколением TPU v5e. Ключевые характеристики, анонсированные в мае 2024:

  • 4,7-кратное увеличение пиковой производительности на чип (bfloat16: с 197 до ~926 терафлопс)
  • 2-кратное увеличение емкости памяти HBM (с 16 ГБ до 32 ГБ)
  • 2-кратное увеличение пропускной способности памяти HBM
  • 2-кратное увеличение пропускной способности межчиповой сети ICI
  • 67% улучшение энергоэффективности по сравнению с TPU v5e

Впервые Google создал TPU, который обеспечивает 925,9 терафлопс производительности в формате bfloat16 на чип — это существенный скачок после того, как производительность TPU v5e (197 TFLOPS) фактически снизилась по сравнению с TPU v4 (275 TFLOPS).

Архитектурные прорывы

Trillium достиг таких показателей за счет нескольких ключевых инноваций:

Расширенные матричные блоки (MXU): Google увеличил размер матричных умножителей и повысил тактовую частоту. Предыдущие четыре поколения использовали матрицы 128×128, и эксперты предполагают, что Trillium мог вернуться к формату 256×256 из TPU v1 с эффективной двухкратной накачкой.

SparseCore третьего поколения: Специализированный ускоритель для обработки сверхбольших эмбеддингов, критичных для современных систем ранжирования и рекомендаций. SparseCore стратегически разгружает случайный доступ к памяти от основных TensorCore, ускоряя работу с эмбеддингами.

Масштабируемость до 256 чипов в поде: Trillium формирует поды с 256 TPU, связанными 2D-тополог

ией межчиповых соединений. Благодаря технологии multislice и Titanium Intelligence Processing Units (IPU), Trillium может масштабироваться до сотен подов, объединяя десятки тысяч чипов в суперкомпьютер размером со здание, связанный мультипетабитной дата-центровой сетью.

Практическое применение и бенчмарки

Google поделился результатами тестирования производительности Trillium на пяти тренировочных бенчмарках, показав в среднем 3,85-кратное улучшение (которое Google округляет до 4x) по сравнению с TPU v5e. Для инференса, тестирование на модели Stable Diffusion XL продемонстрировало существенное ускорение, хотя и не достигающее полного потенциала 4,7x прироста.

Критически важная метрика — соотношение цена-производительность. Согласно Google, Trillium обеспечивает:

  • 1,8x улучшение производительности на доллар по сравнению с TPU v5e
  • 2x улучшение производительности на доллар по сравнению с TPU v5p

Это делает Trillium самым экономически эффективным TPU в истории Google. Компании Essential AI, Nuro, Deep Genomics и Deloitte уже объявили о планах использования Trillium для своих ИИ-приложений.

Axion CPU: Революция Arm в Дата-Центрах Google

Почему одних TPU недостаточно

Распространенное заблуждение: ИИ-приложения работают исключительно на специализированных ускорителях. Реальность сложнее. Современные ИИ-системы требуют сложной оркестрации:

  • Предварительная обработка данных перед подачей в модель
  • RAG-системы (Retrieval-Augmented Generation) для поиска релевантной информации
  • Микросервисная архитектура для управления агентными рабочими процессами
  • Веб-серверы для обслуживания приложений
  • Базы данных для хранения контекста и результатов
Материал по теме:  Эволюция в робототехнике: как новые материалы меняют будущее машин

Все эти задачи выполняются на универсальных CPU. В апреле 2024 года Google представил Axion CPU — свой первый процессор общего назначения на базе архитектуры Arm Neoverse V2 (Armv9).

Технические характеристики и преимущества

Axion базируется на платформе Arm Neoverse V2 — той же архитектуре, что используется в NVIDIA Grace и Amazon Graviton4. Ключевые заявленные преимущества:

  • 30% лучше производительность по сравнению с конкурирующими Arm-инстансами (AWS Graviton, Azure Cobalt)
  • До 50% лучше производительность по сравнению с современными x86-инстансами
  • До 60% лучше энергоэффективность по сравнению с x86

Процессор поддерживает до 72 ядер и оснащен расширенными возможностями Armv9: SVE2 (Scalable Vector Extension), BTI (Branch Target Identification), BF16, I8MM, PAC (Pointer Authentication), и PMU (Performance Monitoring Unit).

C4A, N4A и C4A Metal: Семейство Инстансов

Google развернул Axion в нескольких конфигурациях, каждая из которых оптимизирована для специфических рабочих нагрузок:

C4A (GA с октября 2024) — премиум-инстанс для высокопроизводительных задач:

  • Консистентная высокая производительность
  • Сетевая пропускная способность до 100 Гбит/с
  • Идеально для средних и крупных баз данных, in-memory кешей, ИИ-инференса, high-traffic игровых серверов
  • Цена: ~$2.16/час за 48 vCPU с 192 ГБ RAM

N4A (Preview с ноября 2024) — наиболее экономичный вариант:

  • Базируется на Arm Neoverse N3
  • До 2x лучшее соотношение цена-производительность vs x86 N-серии
  • Поддержка Custom Machine Types (CMT) — настройка vCPU и памяти под конкретные нужды
  • До 64 vCPU и 512 ГБ DDR5 в различных конфигурациях
  • Идеально для веб-серверов, микросервисов, open-source БД, аналитики данных, подготовки данных для ИИ

C4A Metal (Coming Soon) — первый bare metal инстанс на Arm от Google:

  • Прямой доступ к физическому серверу без виртуализации
  • Для специализированных применений: разработка автомобильных систем, workloads с строгими лицензионными требованиями, Android software development

Titanium: Секретное оружие производительности

Ключевое отличие Axion от конкурентов — интеграция с системой Titanium. Это набор специализированных микроконтроллеров и чипов, которые разгружают Axion от инфраструктурных задач:

  • Titan — микроконтроллер root of trust для безопасной загрузки и защиты сетевого трафика
  • TOP (Titan Offload Processor) — обработка сетевых операций, освобождая ядра CPU для клиентских workloads
  • Hyperdisk — хранилище с offload обработки storage I/O

Результат: практически 100% ресурсов CPU доступны для пользовательских приложений, а не расходуются на обслуживание платформы.

Вертикальная интеграция на практике

Сочетание Trillium TPU для интенсивного инференса и Axion CPU для вспомогательных задач создает мощную синергию. Пока TPU обрабатывает запрос к LLM, процессоры Axion:

  • Извлекают релевантные документы из векторной базы данных
  • Подготавливают промпты с нужным форматированием
  • Обрабатывают результаты модели для отображения пользователю
  • Логируют метрики и обновляют состояние системы

Все это происходит в единой экосистеме Google Cloud, оптимизированной на уровне аппаратного и программного обеспечения. Google уже использует Axion внутри компании для YouTube рекламы, BigTable, Spanner, и BigQuery.

Вертикальная Интеграция: Как Google строит «AI Hypercomputer»

Что такое AI Hypercomputer?

AI Hypercomputer — это не просто маркетинговый термин. Это философия системного подхода, где каждый уровень стека оптимизирован для работы с другими. Концепция была представлена Google в декабре 2023 вместе с TPU v5p и развивается с каждым новым поколением:

Уровень 1: Производительно-оптимизированное железо

  • Кастомные TPU (Trillium v6e) для ИИ-вычислений
  • Кастомные CPU (Axion) для универсальных задач
  • GPU NVIDIA (H100, Blackwell) для клиентов, использующих CUDA-экосистему
  • Сетевая инфраструктура Jupiter с технологией Optical Circuit Switching (OCS)
  • Жидкостное охлаждение с uptime 99,999% с 2020 года
  • Hyperdisk ML и Parallelstore для оптимизации хранения данных

Уровень 2: Оптимизированное программное обеспечение

  • Pathways on Cloud — распределенная система исполнения от Google DeepMind с disaggregated serving
  • MaxText — фреймворк для эффективного обучения LLM на JAX
  • JetStream — движок инференса с оптимизацией по памяти и пропускной способности
  • GKE (Google Kubernetes Engine) — управление масштабными TPU кластерами
  • Cluster Director — управление группами ускорителей как единой системой
  • Поддержка популярных фреймворков: PyTorch, JAX, TensorFlow, vLLM, Keras

Уровень 3: Гибкие модели потребления

  • Dynamic Workload Scheduler с режимами Flex Start (оптимизация экономики) и Calendar (предсказуемость запуска)
  • Committed Use Discounts (CUD) — скидки за долгосрочные контракты (3-летний контракт фактически дает третий год бесплатно)
  • Spot-инстансы для непредсказуемых нагрузок
  • On-demand — стандартная почасовая оплата

Google vs NVIDIA vs AWS/Azure: стратегии победы

Три разные стратегии доминирования в ИИ-инфраструктуре:

NVIDIA: Фокус на самых мощных GPU-ускорителях. Экосистема CUDA создает lock-in эффект — разработчики инвестируют в CUDA-оптимизированный код. Доминирование 80-90% рынка ИИ-ускорителей. Но NVIDIA не контролирует облачные сервисы, сетевую инфраструктуру или программные фреймворки верхнего уровня. Каждый слой стека добавляет маржу партнеров, снижая экономическую эффективность для конечного клиента.

AWS/Azure: Фокус на широте сервисов и гибкости. Предлагают GPU NVIDIA, собственные ASIC (AWS Graviton4/Trainium2, Azure Cobalt/Maia), разнообразные CPU. Amazon уже на четвертом поколении Graviton, Microsoft представил Cobalt в ноябре 2023. Они диверсифицируют риски, но не контролируют дизайн чипов полностью и зависят от внешних foundries.

Материал по теме:  OpenAI в 2025 году: доминирование стоимостью $500 миллиардов

Google: Полный контроль вертикали — от кремния до приложений. Gemini 1.5 Flash, Gemini 1.5 Pro, Imagen 3, Gemma 2, Veo — все тренируются и работают на TPU. Это позволяет:

  • Коодизайнить железо под конкретные модели
  • Оптимизировать весь стек под сквозную латентность
  • Захватывать всю маржу, снижая цену для клиентов
  • Быстрее внедрять инновации без координации с партнерами

Согласно недавнему отчету IDC, клиенты AI Hypercomputer достигли 353% трехлетней ROI, на 28% снизили IT-затраты и получили на 55% более эффективные IT-команды. Недавние данные показывают, что Gemini Flash 2.0 достигает в 24 раза большей «интеллектуальности на доллар» чем GPT-4o и в 5 раз больше чем DeepSeek-R1.

Роль софта: Pathways и GKE

Железо — это только половина истории. Google активно развивает программные инструменты:

Pathways on Cloud — система от DeepMind, которая впервые стала доступна в Google Cloud в апреле 2025. Она включает disaggregated serving — динамическое масштабирование этапов prefill и decode инференса на отдельных вычислительных единицах для ультранизкой задержки и высокой пропускной способности.

MaxText — открытый фреймворк для обучения LLM на JAX, оптимизированный под TPU. Он автоматически распределяет модель по тысячам чипов, управляет контрольными точками и оптимизирует использование памяти.

GKE Inference Gateway и Cluster Director — инструменты для развертывания моделей в production с автоматическим масштабированием, балансировкой нагрузки, мониторингом и предиктивным обнаружением сбоев. Cluster Director обеспечивает 360° observability с AI Health Predictor и Straggler Detection для проактивного устранения проблем.

JetStream — движок инференса для LLM с оптимизацией пропускной способности и памяти, обеспечивающий более высокую производительность на доллар для открытых моделей типа Gemma 7B.

Рыночные Последствия: Поворотный Момент 2024 Года

Немедленные последствия

Двойной анонс Trillium (май 2024) и Axion (апрель 2024) меняет баланс сил на рынке ИИ-инфраструктуры:

Для NVIDIA: Впервые появилась серьезная конкуренция в облачном ИИ. Хотя NVIDIA сохраняет 80-90% рынка ИИ-GPU и преимущество экосистемы CUDA, облачные провайдеры (Google, Amazon, Microsoft) все активнее инвестируют в собственные ASIC. Это сигнал: монополия GPU для ИИ ослабевает, особенно для inference-workloads.

Для Intel/AMD: Проникновение Arm-процессоров в дата-центры ускоряется. Если Axion действительно обеспечивает до 50% преимущество по производительности и 60% по энергоэффективности, рентабельность серверных CPU на x86 под угрозой. Все три гиперскейлера (Google, Amazon, Microsoft) теперь имеют собственные Arm-процессоры. Oracle масштабно использует Ampere. Аналитики отмечают: «Если у вас были сомнения относительно позиций Arm на рынке дата-центровых CPU — отбросьте их».

Для Google Cloud: Рост на 34% год к году до $15,15 млрд в Q3 2024 — самый быстрый среди мажорных гиперскейлеров (AWS +20%, Azure +40%). Trillium и Axion усиливают этот тренд. Google впервые превысил $100 млрд квартальной выручки в Q3 2024. Сундар Пичаи заявил: «Мы видим существенный спрос на нашу ИИ-инфраструктуру, включая решения на базе TPU и GPU».

Долгосрочная перспектива

В ближайшие 2-3 года индустрия увидит:

Фрагментацию рынка ИИ-ускорителей: Эра доминирования одного поставщика GPU заканчивается. Кастомные ASIC от облачных провайдеров захватят 10-20% рынка, особенно для inference-workloads. TPU, Trainium, Maia, Cobalt — каждый гиперскейлер строит альтернативу NVIDIA.

Эскалацию инвестиций в капекс: Облачные гиганты наращивают капитальные затраты. Потребность в масштабных ИИ-дата-центрах с кастомным железом требует десятков миллиардов долларов ежегодных инвестиций. Компании, не готовые к такому уровню капекса, отстанут в гонке.

Консолидацию облачного ИИ: Компании с вертикальной интеграцией (Google, Amazon, Microsoft) усилят позиции. Стартапы, зависимые от аренды GPU NVIDIA, столкнутся с растущими издержками и ограниченной доступностью железа. Антропик выбрал путь диверсификации — миллион TPU у Google и сотни тысяч Trainium у AWS.

Эволюцию разработки софта: Появится больше мультиплатформенных фреймворков, абстрагирующих различия между TPU, GPU и другими ускорителями. OpenXLA, JAX, ONNX Runtime, PyTorch/XLA — инструменты, которые позволят разработчикам писать код один раз и запускать везде.

Смещение фокуса с training на inference: По мере того как фундаментальные модели становятся товаром, основная экономическая ценность смещается к эффективному обслуживанию этих моделей миллионам пользователей. Trillium оптимизирован именно для этого перехода.

Что это значит для IT-стратегии?

Если вы IT-руководитель или облачный архитектор, анонсы Google заставляют пересмотреть стратегию:

  1. Пересмотрите зависимость от NVIDIA: Для inference-workloads рассмотрите TPU Trillium или AWS Trainium. Экономия может достигать 30-50% при сопоставимой или лучшей производительности.
  2. Исследуйте Arm для не-ИИ задач: Если ваши микросервисы и базы данных не привязаны к x86-специфичным библиотекам, Axion C4A/N4A может существенно снизить расходы при улучшении энергоэффективности.
  3. Думайте экосистемно: Вместо лучшего GPU выбирайте лучшую интегрированную платформу. Учитывайте латентность сети, доступность памяти, качество оркестрации, observability инструменты.
  4. Инвестируйте в портируемый код: Пишите ИИ-приложения так, чтобы их можно было развернуть на разных типах железа (TPU, GPU, Trainium). Используйте OpenXLA, JAX, PyTorch/XLA. Это даст переговорную силу с облачными провайдерами.
  5. Не игнорируйте катастрофическое забывание ИИ: При выборе инфраструктуры учитывайте не только скорость, но и возможность моделей сохранять контекст. Большая общая память в TPU-подах критична для long-context моделей.
Материал по теме:  Теплица будущего: обзор 5 цифровых решений

?? Возможности для Казахстанских разработчиков в эпоху AI Hypercomputer

Объявления Google о Trillium TPU v6e и Axion CPU открывают новую фазу в развитии облачной инфраструктуры. Для казахстанских разработчиков и IT-компаний это означает появление конкретных технологических возможностей. Ниже представлен анализ того, что именно дает эта интегрированная стратегия и как этим можно воспользоваться, избегая прямых утверждений и сохраняя информационный стиль.

1. Доступ к Экономически Эффективному Инференсу ИИ

Внедрение Trillium TPU v6e, оптимизированного для инференса и обеспечивающего заявленное 1,8x–2x лучшее соотношение цена/производительность по сравнению с предыдущими TPU, создает новый стандарт рентабельности.

Что дает Trillium TPUКак воспользоваться
Снижение стоимости инференсаРазвертывание крупномасштабных языковых моделей (LLM), в том числе моделей на казахском языке, на более экономичной инфраструктуре. Это делает возможным запуск ИИ-сервисов с меньшими операционными расходами.
Высокая масштабируемостьИспользование Superpods Trillium для обслуживания внезапно растущих нагрузок (например, пиков трафика для национальных онлайн-сервисов или игровых платформ).
Новые фреймворки (Pathways, MaxText)Освоение фреймворков, оптимизированных под TPU (например, JAX/XLA), позволяет казахстанским AI-инженерам писать код, который будет работать максимально эффективно на этой специализированной архитектуре.

2. Оптимизация Общих Вычислительных Нагрузок через Axion CPU

Процессоры Axion на архитектуре Arm призваны оптимизировать не-ИИ компоненты современных систем, включая RAG-системы и микросервисы.

Что дает Axion CPUКак воспользоваться
Улучшенная энергоэффективность (до 60% лучше, чем x86)Внедрение зеленых IT-решений. Разработчики могут выбирать инстансы Axion C4A/N4A для своих бэкенд-сервисов, снижая потребление энергии, что соответствует растущим требованиям к экологичности (ESG) и снижению затрат.
Преимущество в производительности (до 50% лучше, чем x86)Перевод микросервисной архитектуры (например, на основе Kubernetes/GKE), баз данных (PostgreSQL, MySQL) и веб-серверов на Arm. Это обеспечивает более высокую скорость отклика и пропускную способность для конечных пользователей.
Интеграция с TitaniumПолучение практически 100% ресурсов CPU для клиентских приложений (за счет разгрузки сетевых и I/O задач на Titanium). Это позволяет разработчикам сосредоточиться на бизнес-логике, а не на управлении инфраструктурными накладными расходами.

3. Стратегия Вертикальной Интеграции («AI Hypercomputer»)

Концепция AI Hypercomputer предлагает не просто чипы, а единую, оптимизированную экосистему от кремния до софта.

Что дает AI HypercomputerКак воспользоваться
Сквозная оптимизацияВыбор интегрированной платформы вместо «сборки» из разных компонентов. Разработчики могут использовать GKE Inference Gateway и Cluster Director для автоматического и надежного развертывания своих ИИ-моделей.
Портируемость кода (OpenXLA)Инвестирование в разработку, использующую мультиплатформенные фреймворки (JAX, OpenXLA). Это позволяет казахстанским разработчикам сохранять гибкость и при необходимости мигрировать между различными ускорителями (TPU, NVIDIA GPU, AWS Trainium) с минимальными изменениями в коде.
Гибкие модели потребления (CUD, Flex Start)Использование Committed Use Discounts (CUD) для долгосрочных проектов по обучению моделей или Flex Start для экономичного запуска некритических нагрузок. Это обеспечивает предсказуемость расходов при высокой волатильности ИИ-рабочих нагрузок.

Практические сценарии для казахстанского IT-сектора

Языковые модели для казахского языка: Запуск специализированных LLM для казахского и русского языков становится экономически оправданным благодаря снижению затрат на инференс. Стартапы могут создавать ИИ-ассистенты для государственных услуг, образования и бизнеса.

EdTech и цифровизация образования: Образовательные платформы могут интегрировать персонализированные ИИ-тьюторы, работающие на Trillium, обеспечивая масштабирование на всю страну без пропорционального роста затрат.

Игровая индустрия: Казахстанские игровые студии получают доступ к масштабируемой инфраструктуре для онлайн-игр и обработки ИИ-NPC с высокой производительностью на Axion.

Заключение: Новая Эра Вертикальной Интеграции

Анонсы Trillium TPU v6e и Axion CPU в 2024 году — это больше, чем просто новые чипы. Это манифест новой парадигмы, где побеждает не тот, у кого самый быстрый GPU, а тот, кто лучше интегрирует весь стек от кремния до приложений.

Google Trillium TPU доказывает: специализированные ускорители могут обеспечить 4,7-кратный прирост производительности при 67% улучшении энергоэффективности. Axion CPU показывает: эпоха монополии x86 в дата-центрах заканчивается, Arm предлагает 50% преимущество по производительности и 60% по энергоэффективности. AI Hypercomputer демонстрирует: вертикальная интеграция — это не просто бизнес-модель, а источник технологического превосходства и 353% ROI для клиентов.

Для NVIDIA это первый серьезный вызов доминированию в ИИ-железе со стороны кастомных ASIC. Для Intel и AMD — ускорение потери серверного рынка в пользу Arm. Для AWS и Azure — необходимость еще агрессивнее инвестировать в собственные чипы (Graviton4, Trainium2, Cobalt, Maia).

А для компаний, строящих ИИ-приложения, это означает больше выбора, лучшую экономику и новые возможности масштабирования. Катастрофическое забывание ИИ, узкие места в инференсе, astronomical costs обучения больших моделей — проблемы, которые казались неразрешимыми, теперь имеют конкретные технологические решения.

Вопрос не в том, изменит ли стратегия Google рынок. Вопрос в том, насколько быстро остальные игроки адаптируются к новой реальности, где вертикальная интеграция становится необходимым условием для конкуренции в эпоху массового ИИ.


Поделитесь своим мнением: Как, по-вашему, анонсы Google Trillium и Axion повлияют на вашу IT-стратегию? Рассматриваете ли вы миграцию с GPU NVIDIA на TPU или переход на Arm-инстансы? Обсудим в комментариях на cifrum.kz.


Ключевые выводы

  • Google Trillium TPU v6e предлагает 4,7-кратное улучшение производительности и 67% лучшую энергоэффективность, масштабируется до 256 чипов в поде
  • Axion CPU обеспечивает до 50% преимущества по производительности и 60% по энергоэффективности над x86 для облачных рабочих нагрузок
  • AI Hypercomputer — полностью интегрированная система, где железо, софт и сеть оптимизированы для работы в связке, обеспечивая 353% ROI
  • Anthropic, Essential AI, Nuro, Deep Genomics и Deloitte подтвердили использование Trillium для своих ИИ-систем
  • Анонсы 2024 года являются поворотным моментом в конкуренции за рынок ИИ-инфраструктуры, где вертикальная интеграция становится ключевым конкурентным преимуществом

Возможно вам интересно:

Big Tech и атомная энергетика: Microsoft, Google и Amazon заключают сделки

Digital Bridge 2025: Generative Nation в Астане

Автоматизация сельского хозяйства: роботы меняют отрасль

ИИ для видео: рынок видео-генерации набирает обороты в октябре 2025

CAMIA: новый метод атак раскрывает, что ИИ запоминает о ваших данных

Проект OpenAI Sora 2: Революция в коротких AI-видео

Человекоподобные роботы: почему Родни Брукс считает их тупиком

Нанороботы с магнитным управлением: революция в лечении рака

Ссылки:

Примечание:

Материал подготовлен в информационных целях и не является официальным заявлением компании Google LLC, NVIDIA Corporation, Intel Corporation или других упомянутых организаций. Все упомянутые торговые марки, наименования продуктов и технологий принадлежат их законным владельцам.

Редакция Cifrum.kz не несёт ответственности за возможные интерпретации, допущенные при изложении фактов, аналитических выводов и прогнозов. Публикация не является рекламой или приглашением к инвестиционной, коммерческой либо иной деятельности.

Технические характеристики, данные о производительности и планы развития, приведённые в статье, основаны на общедоступных источниках (включая официальные блоги Google Cloud и отраслевые издания) и актуальны на дату публикации. Возможны изменения без предварительного уведомления.

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Прокрутить наверх