3 Acciones Semiconductores Sobresalientes (Incluyendo Nvidia) para Comprar a Raudales para la Revolución de la Inteligencia Artificial (IA)

Conversational AI Software Powerhouses: ChatGPT, Claude, and Gemini

La inteligencia artificial (IA) está revolucionando el mundo con aplicaciones como ChatGPT, Claude y Gemini. Estas potentes herramientas pueden interpretar y generar texto, imágenes, videos y código informático, lo que podría impulsar un auge de la productividad en la economía global.

Sin embargo, estas aplicaciones de IA no serían posibles sin los centros de datos llenos de semiconductores avanzados, que los desarrolladores utilizan para construir, entrenar y desplegar sus modelos. Jensen Huang, CEO de Nvidia (NASDAQ: NVDA), estima que la base instalada actual de $1 billón de infraestructura de centros de datos en todo el mundo se duplicará en los próximos cinco años debido a la IA.

Esto crea una gran oportunidad para las principales empresas de chips como Nvidia, Advanced Micro Devices (NASDAQ: AMD) y Micron Technology (NASDAQ: MU). Aquí te presentamos por qué los inversores podrían querer tener una participación en cada una de ellas para aprovechar el auge de la IA.

1. Nvidia

Si bien la industria de los videojuegos solía ser la mayor fuente de ingresos de Nvidia, sus unidades de procesamiento gráfico (GPU) para el centro de datos están impulsando actualmente su negocio. En el año fiscal 2024 (finalizado el 28 de enero), la GPU H100 de Nvidia hizo que los ingresos del centro de datos de la compañía se dispararan un 217% a $47.5 mil millones, y se espera que el año fiscal actual 2025 traiga más crecimiento.

La H100 de Nvidia es el chip de centro de datos más solicitado para cargas de trabajo de IA. Muchos gigantes tecnológicos están haciendo cola para comprarlo en grandes cantidades, desde Amazon hasta Oracle y Meta Platforms. Pero Nvidia aumentará los envíos de su nueva GPU H200 este año, lo que podría impulsar la próxima ola de crecimiento de la empresa.

LEAR  Cifra de un robot unicornio humanoide de inteligencia artificial recaudando aproximadamente $2 mil millones de Nvidia, Bezos, Microsoft, OpenAI, entre otros: fuentes

El H200 puede realizar inferencias, lo que significa alimentar datos en vivo a un modelo de IA para que pueda hacer predicciones, a una velocidad dos veces mayor que su predecesor, y también consume un 50% menos de energía, lo que representa un gran ahorro de costos para los operadores de centros de datos.

A más largo plazo, todas las miradas están puestas en la nueva arquitectura Blackwell de Nvidia, que impulsará sus chips de próxima generación. Se espera que la compañía envíe sus GPU Blackwell B200 el próximo año, que ofrecerán 15 veces la velocidad de inferencia de la H100.

Se espera que los ingresos totales de Nvidia se disparen un 81% a un récord de $110 mil millones en el año fiscal actual. A pesar de la ganancia del 240% en su acción en los últimos 12 meses, todavía hay mucho espacio para crecer.

2. Advanced Micro Devices (AMD)

AMD produce algunos de los chips más populares del mundo para dispositivos electrónicos de consumo. Pueden encontrarse en el Microsoft Xbox Series X y el Sony PlayStation 5, por nombrar algunos, además de una larga lista de computadoras personales. Pero AMD lanzó recientemente su serie de chips de centro de datos MI300 en un intento por competir con Nvidia.

El MI300 está disponible como una GPU estándar llamada MI300X, pero también está disponible en una configuración combinada de GPU y CPU llamada MI300A. AMD ya está enviando el MI300A al Laboratorio Nacional Lawrence Livermore para su supercomputadora El Capitan, que será una de las más potentes del mundo cuando entre en línea este año. Pero varios de los principales operadores de centros de datos, incluidos Microsoft, Oracle y Meta Platforms, también están haciendo cola para comprar la serie MI300.

LEAR  Apple confirma que los gobiernos utilizan notificaciones push para espiar a los usuarios.

Mientras AMD persigue a Nvidia en el centro de datos, la empresa tiene una participación de mercado dominante del 90% en la emergente industria de la informática personal habilitada para IA. Millones de computadoras de fabricantes como Dell y HP ya se han enviado con los chips Ryzen AI de AMD, que permiten a los usuarios procesar IA en el dispositivo. Esto resulta en una experiencia más rápida y más receptiva, ya que las cargas de trabajo de IA no tienen que viajar de ida y vuelta al centro de datos.

En el último cuarto trimestre de 2023, la serie Ryzen AI hizo que los ingresos del segmento de Clientes de la compañía aumentaran un 62% año tras año. Combinado con el crecimiento de los envíos de chips MI300, que podrían generar $3.5 mil millones en ventas en 2024, este podría ser el mejor año de AMD.

3. Micron

Micron no recibe tanta atención como Nvidia y AMD porque produce memoria (DRAM) y chips de almacenamiento (NAND), que no son tan glamurosos como las GPU. Sin embargo, cada GPU requiere memoria, que es crucial para extraer su máximo rendimiento.

La última solución de centro de datos de alta memoria HBM3E (high-bandwidth memory) de Micron fue seleccionada por Nvidia para alimentar su nuevo H200. Es una elección obvia porque consume un 30% menos de energía que el hardware HBM competidor, lo que lo hace mucho más eficiente en costos. Micron actualmente está ofreciendo muestras de un nuevo producto HBM3E, que contiene un 50% más de memoria en cada GPU, lo que permite a los clientes de Nvidia llevar sus modelos de IA al mercado mucho más rápidamente.

LEAR  Brasil se prepara para un impulso de inversiones en autos híbridos.

Todo el inventario de HBM de Micron para 2024 ya está vendido, y mucho de su stock para 2025 ya está comprometido.

Al igual que AMD, la oportunidad de IA de Micron se está expandiendo más allá del centro de datos. Los conjuntos de chips habilitados para IA en las nuevas computadoras personales pueden requerir un 80% más de contenido de DRAM que los modelos tradicionales, lo que es excelente para el negocio de Micron. Muchos teléfonos inteligentes modernos también están equipados con chips de IA, que necesitan el doble de DRAM que los dispositivos tradicionales. El nuevo Galaxy S24 de Samsung viene con una serie de funciones de IA y funciona con hardware de Micron.

Los ingresos de Micron aumentaron un 57% año tras año durante el segundo trimestre del año fiscal 2024 (finalizado el 29 de febrero). La compañía también obtuvo un beneficio neto de $793 millones, lo que marca un feliz regreso a la rentabilidad después de más de un año lidiando con la baja de los precios debido a un exceso de suministro de chips.

La previsión de Micron para el próximo tercer trimestre del año fiscal 2024 (que finaliza el 1 de junio) apunta a un crecimiento acelerado de los ingresos del 76%. Las acciones de Micron están operando en un máximo histórico, pero aún son más baratas que las de Nvidia y AMD, por lo que esta podría ser una gran oportunidad de compra para los inversores.