Según un nuevo informe publicado a principios de este año por analistas de Bloomberg Intelligence, la industria de la IA podría expandirse a un ritmo del 42% en una década, impulsada en primer lugar por las bases necesarias para entrenar los sistemas de IA. luego demanda de dispositivos posteriores que utilicen modelos de inteligencia artificial, publicidad y otros servicios. El lanzamiento de herramientas de inteligencia artificial centradas en el consumidor, como ChatGPT y Bard de Google, impulsará un auge de una década que hará crecer el mercado AIGC de 40 mil millones de dólares en ingresos el año pasado a un estimado de 1,3 billones de dólares en 2032.
Fuente de la imagen: Generada por Unbounded AI
La IA generativa (AIGC) está ganando una adopción más amplia, especialmente en el sector empresarial.
Por ejemplo, Walmart anunció recientemente que implementará una aplicación AIGC para 50.000 asociados que no pertenecen a la tienda. La aplicación, que combina los datos de Walmart con un modelo de lenguaje grande (LLM) de terceros, puede ayudar a los empleados con una variedad de tareas, desde acelerar el proceso de redacción hasta actuar como socio creativo y resumir documentos grandes, informó Axios.
Estas implementaciones ayudan a impulsar la demanda de tarjetas gráficas (GPU) necesarias para entrenar potentes modelos de aprendizaje profundo. Las tarjetas gráficas Las GPU son procesadores informáticos especializados que ejecutan instrucciones de programación en paralelo en lugar de secuencialmente como una unidad central de procesamiento (CPU) tradicional.
Según el Wall Street Journal, entrenar estos modelos "puede costar a las empresas miles de millones de dólares debido a las enormes cantidades de datos que necesitan ingerir y analizar". Esto incluye todos los LLM fundamentales y de aprendizaje profundo, desde GPT-4 hasta LaMDA, respectivamente. soporte para aplicaciones de chatbot ChatGPT y Bard.
01. Montando la ola de la IA generativa
La tendencia AIGC ha dado un poderoso impulso al importante proveedor de GPU, Nvidia: la compañía informó ganancias sorprendentes en su trimestre más reciente. Es un momento de auge al menos para Nvidia, ya que casi todas las grandes empresas de tecnología están tratando de conseguir tarjetas gráficas de inteligencia artificial de alta gama.
Erin Griffiths escribe en el New York Times que las nuevas empresas y los inversores están tomando medidas extraordinarias para conseguir estos chips: “Lo que las empresas de tecnología están desesperadas por este año no es dinero, talento en ingeniería, publicidad o incluso ganancias, sino el deseo de GPU. .”
Ben Thompson lo llama "Nvidia en la cima de la montaña" en el boletín Stratechery de esta semana. El impulso se vio impulsado aún más por el anuncio de una asociación entre Google y Nvidia que permitirá a los clientes de la nube de Google obtener un mayor acceso a la tecnología impulsada por las GPU de Nvidia. Todo lo cual apunta a la actual escasez de estos chips ante la creciente demanda.
¿Las demandas actuales marcan la culminación de una nueva generación de IA, o quizás anuncian el comienzo de la próxima ola de desarrollos?
02. Cómo las tecnologías generativas están dando forma al futuro de la informática
El director ejecutivo de Nvidia, Jensen Huang, dijo en la conferencia telefónica sobre resultados más reciente de la compañía que esta demanda marca el comienzo de la "computación acelerada". Añadió que sería prudente que las empresas "desviaran las inversiones de capital de la informática de propósito general y se centraran en generar inteligencia artificial y acelerar la informática".
La informática de propósito general se refiere a CPU diseñadas para una variedad de tareas, desde hojas de cálculo hasta bases de datos relacionales y ERP. Nvidia cree que las CPU son ahora una infraestructura heredada y los desarrolladores deberían optimizar el código de la GPU para realizar tareas de manera más eficiente que las CPU tradicionales.
Las GPU pueden realizar muchos cálculos simultáneamente, lo que las hace ideales para tareas como el aprendizaje automático (ML) que realizan millones de cálculos en paralelo. Las GPU también son particularmente buenas en ciertos tipos de cálculos matemáticos, como álgebra lineal y tareas de manipulación de matrices, que son la base del aprendizaje profundo y la inteligencia artificial.
03. Las GPU son de poco beneficio para algunos tipos de software
Sin embargo, otras categorías de software, incluida la mayoría de las aplicaciones empresariales existentes, están optimizadas para ejecutarse en CPU y se benefician poco de la ejecución de instrucciones paralelas de las GPU.
Thompson parece tener una opinión similar: "Mi interpretación del punto de Huang es que todas estas GPU se utilizarán para muchas de las mismas actividades que actualmente se ejecutan en las CPU; esta es ciertamente una visión optimista para Nvidia porque significa perseguir el potencial El exceso de capacidad generado por la IA generativa se cubrirá con las cargas de trabajo actuales de computación en la nube”.
Continuó: "Dicho esto, lo dudo: tanto los humanos como las empresas son vagos, y las aplicaciones basadas en CPU no sólo son más fáciles de desarrollar, sino que en su mayoría ya están construidas. Me cuesta imaginar qué empresas se tomarían el tiempo y Esfuerzo por trasladar algo que ya se ejecuta en la CPU a la GPU".
04. La historia se repite
Matt Assay de InfoWorld nos recuerda que hemos visto esto antes. "Cuando surgió por primera vez el aprendizaje automático, los científicos de datos lo aplicaron a todo, incluso si había herramientas más simples. Como señaló una vez el científico de datos Noah Lorang: "Sólo un pequeño subconjunto de problemas empresariales se resuelve mejor con el aprendizaje automático; la mayoría de las personas sólo necesitan una buena solución". datos y comprender lo que significan. "
El punto es que la computación acelerada y las GPU no son suficientes para todas las necesidades de software.
Nvidia tuvo un trimestre sólido, impulsado por la prisa actual por desarrollar una nueva generación de aplicaciones de inteligencia artificial. Naturalmente, la empresa está entusiasmada con esto. Sin embargo, como hemos visto en el reciente ciclo de exageración de tecnologías emergentes de Gartner, esta nueva generación de IA está pasando por su momento y se encuentra en la cima de expectativas infladas.
Peter Diamandis, fundador de Singularity University y XPRIZE, dijo que estas expectativas tienen que ver con ver el potencial futuro sin consecuencias negativas. "En ese momento, el revuelo comienza a generar entusiasmo infundado y expectativas infladas".
05. Limitaciones actuales
En este punto, pronto llegaremos a los límites de la actual moda de AIGC. Como escribieron los capitalistas de riesgo Paul Kedrosky y Eric Norlin de SK Ventures en el Substack de su empresa: "Nuestra opinión es que estamos al final de la primera ola de IA basada en grandes modelos de lenguaje. Esta ola comenzó en el año 2017, con [Google] Papel transformador ("La atención es todo lo que necesitas"), y está terminando en algún momento del próximo año o dos, existen todo tipo de limitaciones. "
Estas limitaciones incluyen "una tendencia a alucinar, datos de entrenamiento insuficientes para un dominio limitado, corpus de entrenamiento obsoletos de hace muchos años o muchas otras razones". Y añaden: "Ya estamos al final de la ola actual de IA".
Para ser claros, Kedrosky y Norlin no creen que la IA haya llegado a un callejón sin salida. Más bien, argumentan que se necesitan mejoras tecnológicas sustanciales para lograr algo mejor que una “automatización regular” y un crecimiento limitado de la productividad. Creen que la próxima ola incluirá nuevos modelos, más código abierto y, especialmente, "GPU ubicuas/baratas" que, si son correctas, pueden no ser un buen augurio para Nvidia, pero permitirán que quienes las necesitan se beneficien de la tecnología.
Como señaló Fortune, Amazon ha dejado claras sus intenciones de desafiar directamente el dominio de Nvidia en la fabricación de chips. No están solos, y muchas nuevas empresas están compitiendo por participación de mercado, al igual que los gigantes de los chips, incluido AMD. Desafiar a un titular dominante es extremadamente difícil. Al menos en este caso, ampliar el origen de estos chips y reducir el precio de la escasa tecnología será clave para desarrollar y difundir la ola de innovaciones AIGC.
06 La próxima ola de IA
A pesar de las limitaciones de los modelos y aplicaciones de la generación actual, el futuro de AIGC es brillante. Probablemente haya varias razones detrás de este compromiso, pero quizás la más importante sea la escasez generacional de trabajadores en toda la economía, que seguirá impulsando la demanda de mayores niveles de automatización.
Aunque históricamente la IA y la automatización se han considerado separadas, con la llegada del AIGC esta visión está cambiando. La tecnología se está convirtiendo cada vez más en un motor de automatización y productividad. Mike Knoop, cofundador de la empresa de flujo de trabajo Zapier, mencionó este fenómeno en un podcast reciente de Eye on AI y dijo: "La inteligencia artificial y la automatización están colapsando en la misma cosa".
Por supuesto, McKinsey cree esto. "AIGC está preparado para desencadenar la próxima ola de productividad", dijeron en un informe reciente. Y no están solos. Por ejemplo, Goldman Sachs dijo que una nueva generación de inteligencia artificial podría aumentar el PIB mundial en un 7%.
Ya sea que estemos o no en la cima de la generación actual de IA, es claramente un área que continuará evolucionando y generando debates en toda la empresa. Si bien los desafíos son grandes, también lo son las oportunidades, especialmente en un mundo ávido de innovación y eficiencia. La batalla por el dominio de la GPU es solo una instantánea de esta narrativa en desarrollo, un prólogo del futuro capítulo de la inteligencia artificial y la informática.
Referencias:
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
AIGC se encuentra en un punto de inflexión: ¿qué sigue para la adopción en el mundo real?
Fuente original: Laboratorio de Innovación AGI
Según un nuevo informe publicado a principios de este año por analistas de Bloomberg Intelligence, la industria de la IA podría expandirse a un ritmo del 42% en una década, impulsada en primer lugar por las bases necesarias para entrenar los sistemas de IA. luego demanda de dispositivos posteriores que utilicen modelos de inteligencia artificial, publicidad y otros servicios. El lanzamiento de herramientas de inteligencia artificial centradas en el consumidor, como ChatGPT y Bard de Google, impulsará un auge de una década que hará crecer el mercado AIGC de 40 mil millones de dólares en ingresos el año pasado a un estimado de 1,3 billones de dólares en 2032.
La IA generativa (AIGC) está ganando una adopción más amplia, especialmente en el sector empresarial.
Por ejemplo, Walmart anunció recientemente que implementará una aplicación AIGC para 50.000 asociados que no pertenecen a la tienda. La aplicación, que combina los datos de Walmart con un modelo de lenguaje grande (LLM) de terceros, puede ayudar a los empleados con una variedad de tareas, desde acelerar el proceso de redacción hasta actuar como socio creativo y resumir documentos grandes, informó Axios.
Estas implementaciones ayudan a impulsar la demanda de tarjetas gráficas (GPU) necesarias para entrenar potentes modelos de aprendizaje profundo. Las tarjetas gráficas Las GPU son procesadores informáticos especializados que ejecutan instrucciones de programación en paralelo en lugar de secuencialmente como una unidad central de procesamiento (CPU) tradicional.
Según el Wall Street Journal, entrenar estos modelos "puede costar a las empresas miles de millones de dólares debido a las enormes cantidades de datos que necesitan ingerir y analizar". Esto incluye todos los LLM fundamentales y de aprendizaje profundo, desde GPT-4 hasta LaMDA, respectivamente. soporte para aplicaciones de chatbot ChatGPT y Bard.
01. Montando la ola de la IA generativa
La tendencia AIGC ha dado un poderoso impulso al importante proveedor de GPU, Nvidia: la compañía informó ganancias sorprendentes en su trimestre más reciente. Es un momento de auge al menos para Nvidia, ya que casi todas las grandes empresas de tecnología están tratando de conseguir tarjetas gráficas de inteligencia artificial de alta gama.
Erin Griffiths escribe en el New York Times que las nuevas empresas y los inversores están tomando medidas extraordinarias para conseguir estos chips: “Lo que las empresas de tecnología están desesperadas por este año no es dinero, talento en ingeniería, publicidad o incluso ganancias, sino el deseo de GPU. .”
Ben Thompson lo llama "Nvidia en la cima de la montaña" en el boletín Stratechery de esta semana. El impulso se vio impulsado aún más por el anuncio de una asociación entre Google y Nvidia que permitirá a los clientes de la nube de Google obtener un mayor acceso a la tecnología impulsada por las GPU de Nvidia. Todo lo cual apunta a la actual escasez de estos chips ante la creciente demanda.
¿Las demandas actuales marcan la culminación de una nueva generación de IA, o quizás anuncian el comienzo de la próxima ola de desarrollos?
02. Cómo las tecnologías generativas están dando forma al futuro de la informática
El director ejecutivo de Nvidia, Jensen Huang, dijo en la conferencia telefónica sobre resultados más reciente de la compañía que esta demanda marca el comienzo de la "computación acelerada". Añadió que sería prudente que las empresas "desviaran las inversiones de capital de la informática de propósito general y se centraran en generar inteligencia artificial y acelerar la informática".
La informática de propósito general se refiere a CPU diseñadas para una variedad de tareas, desde hojas de cálculo hasta bases de datos relacionales y ERP. Nvidia cree que las CPU son ahora una infraestructura heredada y los desarrolladores deberían optimizar el código de la GPU para realizar tareas de manera más eficiente que las CPU tradicionales.
Las GPU pueden realizar muchos cálculos simultáneamente, lo que las hace ideales para tareas como el aprendizaje automático (ML) que realizan millones de cálculos en paralelo. Las GPU también son particularmente buenas en ciertos tipos de cálculos matemáticos, como álgebra lineal y tareas de manipulación de matrices, que son la base del aprendizaje profundo y la inteligencia artificial.
03. Las GPU son de poco beneficio para algunos tipos de software
Sin embargo, otras categorías de software, incluida la mayoría de las aplicaciones empresariales existentes, están optimizadas para ejecutarse en CPU y se benefician poco de la ejecución de instrucciones paralelas de las GPU.
Thompson parece tener una opinión similar: "Mi interpretación del punto de Huang es que todas estas GPU se utilizarán para muchas de las mismas actividades que actualmente se ejecutan en las CPU; esta es ciertamente una visión optimista para Nvidia porque significa perseguir el potencial El exceso de capacidad generado por la IA generativa se cubrirá con las cargas de trabajo actuales de computación en la nube”.
Continuó: "Dicho esto, lo dudo: tanto los humanos como las empresas son vagos, y las aplicaciones basadas en CPU no sólo son más fáciles de desarrollar, sino que en su mayoría ya están construidas. Me cuesta imaginar qué empresas se tomarían el tiempo y Esfuerzo por trasladar algo que ya se ejecuta en la CPU a la GPU".
04. La historia se repite
Matt Assay de InfoWorld nos recuerda que hemos visto esto antes. "Cuando surgió por primera vez el aprendizaje automático, los científicos de datos lo aplicaron a todo, incluso si había herramientas más simples. Como señaló una vez el científico de datos Noah Lorang: "Sólo un pequeño subconjunto de problemas empresariales se resuelve mejor con el aprendizaje automático; la mayoría de las personas sólo necesitan una buena solución". datos y comprender lo que significan. "
El punto es que la computación acelerada y las GPU no son suficientes para todas las necesidades de software.
Nvidia tuvo un trimestre sólido, impulsado por la prisa actual por desarrollar una nueva generación de aplicaciones de inteligencia artificial. Naturalmente, la empresa está entusiasmada con esto. Sin embargo, como hemos visto en el reciente ciclo de exageración de tecnologías emergentes de Gartner, esta nueva generación de IA está pasando por su momento y se encuentra en la cima de expectativas infladas.
Peter Diamandis, fundador de Singularity University y XPRIZE, dijo que estas expectativas tienen que ver con ver el potencial futuro sin consecuencias negativas. "En ese momento, el revuelo comienza a generar entusiasmo infundado y expectativas infladas".
05. Limitaciones actuales
En este punto, pronto llegaremos a los límites de la actual moda de AIGC. Como escribieron los capitalistas de riesgo Paul Kedrosky y Eric Norlin de SK Ventures en el Substack de su empresa: "Nuestra opinión es que estamos al final de la primera ola de IA basada en grandes modelos de lenguaje. Esta ola comenzó en el año 2017, con [Google] Papel transformador ("La atención es todo lo que necesitas"), y está terminando en algún momento del próximo año o dos, existen todo tipo de limitaciones. "
Estas limitaciones incluyen "una tendencia a alucinar, datos de entrenamiento insuficientes para un dominio limitado, corpus de entrenamiento obsoletos de hace muchos años o muchas otras razones". Y añaden: "Ya estamos al final de la ola actual de IA".
Para ser claros, Kedrosky y Norlin no creen que la IA haya llegado a un callejón sin salida. Más bien, argumentan que se necesitan mejoras tecnológicas sustanciales para lograr algo mejor que una “automatización regular” y un crecimiento limitado de la productividad. Creen que la próxima ola incluirá nuevos modelos, más código abierto y, especialmente, "GPU ubicuas/baratas" que, si son correctas, pueden no ser un buen augurio para Nvidia, pero permitirán que quienes las necesitan se beneficien de la tecnología.
Como señaló Fortune, Amazon ha dejado claras sus intenciones de desafiar directamente el dominio de Nvidia en la fabricación de chips. No están solos, y muchas nuevas empresas están compitiendo por participación de mercado, al igual que los gigantes de los chips, incluido AMD. Desafiar a un titular dominante es extremadamente difícil. Al menos en este caso, ampliar el origen de estos chips y reducir el precio de la escasa tecnología será clave para desarrollar y difundir la ola de innovaciones AIGC.
06 La próxima ola de IA
A pesar de las limitaciones de los modelos y aplicaciones de la generación actual, el futuro de AIGC es brillante. Probablemente haya varias razones detrás de este compromiso, pero quizás la más importante sea la escasez generacional de trabajadores en toda la economía, que seguirá impulsando la demanda de mayores niveles de automatización.
Aunque históricamente la IA y la automatización se han considerado separadas, con la llegada del AIGC esta visión está cambiando. La tecnología se está convirtiendo cada vez más en un motor de automatización y productividad. Mike Knoop, cofundador de la empresa de flujo de trabajo Zapier, mencionó este fenómeno en un podcast reciente de Eye on AI y dijo: "La inteligencia artificial y la automatización están colapsando en la misma cosa".
Por supuesto, McKinsey cree esto. "AIGC está preparado para desencadenar la próxima ola de productividad", dijeron en un informe reciente. Y no están solos. Por ejemplo, Goldman Sachs dijo que una nueva generación de inteligencia artificial podría aumentar el PIB mundial en un 7%.
Ya sea que estemos o no en la cima de la generación actual de IA, es claramente un área que continuará evolucionando y generando debates en toda la empresa. Si bien los desafíos son grandes, también lo son las oportunidades, especialmente en un mundo ávido de innovación y eficiencia. La batalla por el dominio de la GPU es solo una instantánea de esta narrativa en desarrollo, un prólogo del futuro capítulo de la inteligencia artificial y la informática.
Referencias: