Según un nuevo informe publicado a principios de este año por analistas de Bloomberg Intelligence, la industria de la IA podría expandirse a un ritmo del 42% en una década, impulsada en primer lugar por las bases necesarias para entrenar los sistemas de IA. luego demanda de dispositivos posteriores que utilicen modelos de inteligencia artificial, publicidad y otros servicios. El lanzamiento de herramientas de inteligencia artificial centradas en el consumidor, como ChatGPT y Bard de Google, impulsará un auge que durará una década y que hará crecer el mercado de AIGC de 40 mil millones de dólares en ingresos el año pasado a aproximadamente 1,3 billones de dólares en 2032.
Fuente de la imagen: Generada por IA ilimitada
La IA generativa (AIGC) está ganando una adopción más amplia, especialmente en las empresas.
Por ejemplo, recientemente, Walmart anunció que implementaría una aplicación AIGC para 50.000 empleados que no pertenecen a la tienda. Según Axios, la aplicación combina datos de Walmart con modelos de lenguaje grande (LLM) de terceros para ayudar a los empleados a completar una variedad de tareas, desde acelerar el proceso de redacción hasta actuar como socio creativo, resumir documentos grandes y más.
Estas implementaciones ayudan a impulsar la demanda de tarjetas gráficas (GPU) necesarias para entrenar potentes modelos de aprendizaje profundo. Las GPU de tarjetas gráficas son procesadores informáticos especializados que ejecutan instrucciones de programación en paralelo en lugar de secuencialmente como una unidad central de procesamiento (CPU) tradicional.
Según el Wall Street Journal, entrenar estos modelos "puede costar a las empresas miles de millones de dólares debido a las enormes cantidades de datos que necesitan ingerir y analizar". Esto incluye todos los LLM fundamentales y de aprendizaje profundo, desde GPT-4 hasta LaMDA, respectivamente. soporte para aplicaciones de chatbot ChatGPT y Bard.
***01.***Montando la ola de la IA generativa
La tendencia AIGC ha dado un poderoso impulso al importante proveedor de GPU, Nvidia: la compañía informó ganancias sorprendentes en su trimestre más reciente. Es un momento de auge al menos para Nvidia, ya que casi todas las grandes empresas de tecnología están tratando de conseguir tarjetas gráficas de inteligencia artificial de alta gama.
Erin Griffiths escribió en The New York Times que las empresas emergentes y los inversores están tomando medidas extraordinarias para hacerse con estos chips: "No es dinero, talento en ingeniería, publicidad o incluso dinero lo que las empresas tecnológicas anhelan desesperadamente este año. Ganancias, sino deseo". para GPU ".
Ben Thompson lo llama "Nvidia en la cima de la montaña" en el boletín Stratechery de esta semana. El impulso se vio impulsado aún más por el anuncio de una asociación entre Google y Nvidia que brindará a los clientes de la nube de Google un mayor acceso a la tecnología impulsada por las GPU de Nvidia. Todo lo cual apunta a la escasez actual de estos chips ante la creciente demanda.
¿La necesidad actual marca el pináculo de una nueva generación de IA, o quizás presagia el comienzo de la próxima ola de desarrollo?
02.Cómo las tecnologías generativas están dando forma al futuro de la informática
El director ejecutivo de Nvidia, Jensen Huang, dijo en la reciente conferencia telefónica sobre resultados de la compañía que esta demanda señala el amanecer de la "computación acelerada". Añadió que sería prudente que las empresas "desviaran las inversiones de capital de la informática de propósito general y se centraran en generar inteligencia artificial y acelerar la informática".
La informática de propósito general se refiere a CPU diseñadas para una variedad de tareas, desde hojas de cálculo hasta bases de datos relacionales y ERP. Nvidia cree que las CPU son ahora una infraestructura heredada y los desarrolladores deberían optimizar el código de la GPU para realizar tareas de manera más eficiente que las CPU tradicionales.
Las GPU pueden realizar muchos cálculos simultáneamente, lo que las hace ideales para tareas como el aprendizaje automático (ML) que realizan millones de cálculos en paralelo. Las GPU también son particularmente buenas en ciertos tipos de cálculos matemáticos, como álgebra lineal y tareas de manipulación de matrices, que son la base del aprendizaje profundo y la inteligencia artificial.
03. Las GPU ofrecen pocos beneficios a ciertos tipos de software
Sin embargo, otras clases de software, incluida la mayoría de las aplicaciones empresariales existentes, están optimizadas para ejecutarse en CPU y se benefician poco de la ejecución de instrucciones paralelas de las GPU.
Thompson parece tener una opinión similar: "Mi interpretación del punto de Huang es que todas estas GPU se utilizarán para muchas de las mismas actividades que actualmente se ejecutan en las CPU; esta es ciertamente una visión optimista para Nvidia porque significa perseguir el potencial El exceso de capacidad generado por la IA generativa se cubrirá con las cargas de trabajo actuales de computación en la nube”.
Continuó: "Dicho esto, lo dudo: tanto los humanos como las empresas son vagos, y las aplicaciones basadas en CPU no sólo son más fáciles de desarrollar, sino que en su mayoría ya están construidas. Me cuesta imaginar qué empresas se tomarían el tiempo y Esfuerzo por trasladar algo que ya se ejecuta en la CPU a la GPU".
04.La historia se repite
Matt Assay de InfoWorld nos recuerda que hemos visto esto antes. "Cuando surgió por primera vez el aprendizaje automático, los científicos de datos lo aplicaron a todo, incluso si había herramientas más simples. Como señaló una vez el científico de datos Noah Lorang: "Sólo un pequeño subconjunto de problemas empresariales se resuelve mejor con el aprendizaje automático; la mayoría de la gente sólo quiere algo bueno". datos y comprender lo que significan. "
El punto es que la computación acelerada y las GPU no son suficientes para todas las necesidades de software.
Nvidia tuvo un trimestre estelar, impulsado por la prisa actual por desarrollar una nueva generación de aplicaciones de inteligencia artificial. Naturalmente, la empresa está entusiasmada con esto. Sin embargo, como hemos visto en el reciente Gartner Hype Cycle for Emerging Technologies, una nueva generación de IA está pasando por su momento y se encuentra en la cima de expectativas infladas.
Peter Diamandis, fundador de Singularity University y XPRIZE, dijo que estas expectativas tienen que ver con ver el potencial futuro sin consecuencias negativas. "En ese momento, el revuelo comienza a generar entusiasmo infundado y expectativas infladas".
05.LÍMITES ACTUALES
En este sentido, pronto llegaremos al límite del actual auge de los AIGC. Como escribieron los capitalistas de riesgo de SK Ventures, Paul Kedrosky y Eric Norlin, en el Substack de su empresa: "Nuestra opinión es que estamos al final de la primera ola de inteligencia artificial basada en grandes modelos de lenguaje. Esta ola comenzó en 2017, año, con [Google] Papel transformador ("La atención es todo lo que necesitas"), y está terminando en algún momento del próximo año o dos, existen todo tipo de limitaciones. "
Estas limitaciones incluyen "una tendencia a alucinar, datos de entrenamiento insuficientes en un dominio limitado, corpus de entrenamiento de hace años que están desactualizados o una miríada de otras razones". Y añaden: "Ya estamos en el final de la actual Ola de IA."
Para ser claros, Kedrosky y Norlin no creen que la IA haya llegado a un callejón sin salida. En cambio, argumentan que se necesitan mejoras tecnológicas sustanciales para lograr algo mejor que una “automatización regular” y ganancias limitadas de productividad. Creen que la próxima ola incluirá nuevos modelos, más código abierto y, especialmente, "GPU ubicuas/baratas" que, si son correctas, pueden no ser un buen augurio para Nvidia, pero permitirán que quienes necesitan la tecnología beneficien a las personas.
Como señala Fortune, Amazon ha dejado clara su intención de desafiar directamente el dominio de Nvidia en la fabricación de chips. No están solos, ya que muchas nuevas empresas están compitiendo por cuota de mercado, al igual que los gigantes de los chips, incluido AMD. Desafiar a un titular dominante es extremadamente difícil. Al menos en este caso, ampliar las fuentes de estos chips y reducir el precio de la tecnología escasa será clave para desarrollar y difundir la ola de innovación del AIGC.
06 La próxima ola de IA
A pesar de las limitaciones de los modelos y aplicaciones de la generación actual, el futuro de AIGC es brillante. Probablemente haya varias razones detrás de este compromiso, pero quizás la más importante sea la escasez generacional de trabajadores en toda la economía, que seguirá impulsando la demanda de mayores niveles de automatización.
Aunque históricamente la IA y la automatización se han considerado separadas, con la llegada del AIGC, esta visión está cambiando. La tecnología se está convirtiendo cada vez más en un motor de automatización y productividad. Mike Knoop, cofundador de la empresa de flujo de trabajo Zapier, se refirió a este fenómeno en un reciente podcast Eye on AI y dijo: "La IA y la automatización se están colapsando en una sola cosa".
Por supuesto, McKinsey cree esto. "AIGC está preparado para desencadenar la próxima ola de productividad", dijeron en un informe reciente. Y no están solos. Por ejemplo, Goldman Sachs dijo que una nueva generación de inteligencia artificial podría aumentar el PIB mundial en un 7%.
Ya sea que estemos o no en la cima de la generación actual de IA, es claramente un área que continuará evolucionando y generando debates en toda la empresa. Si bien los desafíos son grandes, también lo son las oportunidades, especialmente en un mundo ávido de innovación y eficiencia. La batalla por el dominio de la GPU es solo una instantánea de esta narrativa en desarrollo, un prólogo del futuro capítulo de la inteligencia artificial y la informática.
Referencias:
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
AIGC se encuentra en un punto de inflexión: ¿qué sigue para la adopción en el mundo real?
Según un nuevo informe publicado a principios de este año por analistas de Bloomberg Intelligence, la industria de la IA podría expandirse a un ritmo del 42% en una década, impulsada en primer lugar por las bases necesarias para entrenar los sistemas de IA. luego demanda de dispositivos posteriores que utilicen modelos de inteligencia artificial, publicidad y otros servicios. El lanzamiento de herramientas de inteligencia artificial centradas en el consumidor, como ChatGPT y Bard de Google, impulsará un auge que durará una década y que hará crecer el mercado de AIGC de 40 mil millones de dólares en ingresos el año pasado a aproximadamente 1,3 billones de dólares en 2032.
Fuente de la imagen: Generada por IA ilimitada
La IA generativa (AIGC) está ganando una adopción más amplia, especialmente en las empresas.
Por ejemplo, recientemente, Walmart anunció que implementaría una aplicación AIGC para 50.000 empleados que no pertenecen a la tienda. Según Axios, la aplicación combina datos de Walmart con modelos de lenguaje grande (LLM) de terceros para ayudar a los empleados a completar una variedad de tareas, desde acelerar el proceso de redacción hasta actuar como socio creativo, resumir documentos grandes y más.
Estas implementaciones ayudan a impulsar la demanda de tarjetas gráficas (GPU) necesarias para entrenar potentes modelos de aprendizaje profundo. Las GPU de tarjetas gráficas son procesadores informáticos especializados que ejecutan instrucciones de programación en paralelo en lugar de secuencialmente como una unidad central de procesamiento (CPU) tradicional.
Según el Wall Street Journal, entrenar estos modelos "puede costar a las empresas miles de millones de dólares debido a las enormes cantidades de datos que necesitan ingerir y analizar". Esto incluye todos los LLM fundamentales y de aprendizaje profundo, desde GPT-4 hasta LaMDA, respectivamente. soporte para aplicaciones de chatbot ChatGPT y Bard.
***01.***Montando la ola de la IA generativa
La tendencia AIGC ha dado un poderoso impulso al importante proveedor de GPU, Nvidia: la compañía informó ganancias sorprendentes en su trimestre más reciente. Es un momento de auge al menos para Nvidia, ya que casi todas las grandes empresas de tecnología están tratando de conseguir tarjetas gráficas de inteligencia artificial de alta gama.
Erin Griffiths escribió en The New York Times que las empresas emergentes y los inversores están tomando medidas extraordinarias para hacerse con estos chips: "No es dinero, talento en ingeniería, publicidad o incluso dinero lo que las empresas tecnológicas anhelan desesperadamente este año. Ganancias, sino deseo". para GPU ".
Ben Thompson lo llama "Nvidia en la cima de la montaña" en el boletín Stratechery de esta semana. El impulso se vio impulsado aún más por el anuncio de una asociación entre Google y Nvidia que brindará a los clientes de la nube de Google un mayor acceso a la tecnología impulsada por las GPU de Nvidia. Todo lo cual apunta a la escasez actual de estos chips ante la creciente demanda.
¿La necesidad actual marca el pináculo de una nueva generación de IA, o quizás presagia el comienzo de la próxima ola de desarrollo?
02. Cómo las tecnologías generativas están dando forma al futuro de la informática
El director ejecutivo de Nvidia, Jensen Huang, dijo en la reciente conferencia telefónica sobre resultados de la compañía que esta demanda señala el amanecer de la "computación acelerada". Añadió que sería prudente que las empresas "desviaran las inversiones de capital de la informática de propósito general y se centraran en generar inteligencia artificial y acelerar la informática".
La informática de propósito general se refiere a CPU diseñadas para una variedad de tareas, desde hojas de cálculo hasta bases de datos relacionales y ERP. Nvidia cree que las CPU son ahora una infraestructura heredada y los desarrolladores deberían optimizar el código de la GPU para realizar tareas de manera más eficiente que las CPU tradicionales.
Las GPU pueden realizar muchos cálculos simultáneamente, lo que las hace ideales para tareas como el aprendizaje automático (ML) que realizan millones de cálculos en paralelo. Las GPU también son particularmente buenas en ciertos tipos de cálculos matemáticos, como álgebra lineal y tareas de manipulación de matrices, que son la base del aprendizaje profundo y la inteligencia artificial.
03. Las GPU ofrecen pocos beneficios a ciertos tipos de software
Sin embargo, otras clases de software, incluida la mayoría de las aplicaciones empresariales existentes, están optimizadas para ejecutarse en CPU y se benefician poco de la ejecución de instrucciones paralelas de las GPU.
Thompson parece tener una opinión similar: "Mi interpretación del punto de Huang es que todas estas GPU se utilizarán para muchas de las mismas actividades que actualmente se ejecutan en las CPU; esta es ciertamente una visión optimista para Nvidia porque significa perseguir el potencial El exceso de capacidad generado por la IA generativa se cubrirá con las cargas de trabajo actuales de computación en la nube”.
Continuó: "Dicho esto, lo dudo: tanto los humanos como las empresas son vagos, y las aplicaciones basadas en CPU no sólo son más fáciles de desarrollar, sino que en su mayoría ya están construidas. Me cuesta imaginar qué empresas se tomarían el tiempo y Esfuerzo por trasladar algo que ya se ejecuta en la CPU a la GPU".
04. La historia se repite
Matt Assay de InfoWorld nos recuerda que hemos visto esto antes. "Cuando surgió por primera vez el aprendizaje automático, los científicos de datos lo aplicaron a todo, incluso si había herramientas más simples. Como señaló una vez el científico de datos Noah Lorang: "Sólo un pequeño subconjunto de problemas empresariales se resuelve mejor con el aprendizaje automático; la mayoría de la gente sólo quiere algo bueno". datos y comprender lo que significan. "
El punto es que la computación acelerada y las GPU no son suficientes para todas las necesidades de software.
Nvidia tuvo un trimestre estelar, impulsado por la prisa actual por desarrollar una nueva generación de aplicaciones de inteligencia artificial. Naturalmente, la empresa está entusiasmada con esto. Sin embargo, como hemos visto en el reciente Gartner Hype Cycle for Emerging Technologies, una nueva generación de IA está pasando por su momento y se encuentra en la cima de expectativas infladas.
Peter Diamandis, fundador de Singularity University y XPRIZE, dijo que estas expectativas tienen que ver con ver el potencial futuro sin consecuencias negativas. "En ese momento, el revuelo comienza a generar entusiasmo infundado y expectativas infladas".
05. LÍMITES ACTUALES
En este sentido, pronto llegaremos al límite del actual auge de los AIGC. Como escribieron los capitalistas de riesgo de SK Ventures, Paul Kedrosky y Eric Norlin, en el Substack de su empresa: "Nuestra opinión es que estamos al final de la primera ola de inteligencia artificial basada en grandes modelos de lenguaje. Esta ola comenzó en 2017, año, con [Google] Papel transformador ("La atención es todo lo que necesitas"), y está terminando en algún momento del próximo año o dos, existen todo tipo de limitaciones. "
Estas limitaciones incluyen "una tendencia a alucinar, datos de entrenamiento insuficientes en un dominio limitado, corpus de entrenamiento de hace años que están desactualizados o una miríada de otras razones". Y añaden: "Ya estamos en el final de la actual Ola de IA."
Para ser claros, Kedrosky y Norlin no creen que la IA haya llegado a un callejón sin salida. En cambio, argumentan que se necesitan mejoras tecnológicas sustanciales para lograr algo mejor que una “automatización regular” y ganancias limitadas de productividad. Creen que la próxima ola incluirá nuevos modelos, más código abierto y, especialmente, "GPU ubicuas/baratas" que, si son correctas, pueden no ser un buen augurio para Nvidia, pero permitirán que quienes necesitan la tecnología beneficien a las personas.
Como señala Fortune, Amazon ha dejado clara su intención de desafiar directamente el dominio de Nvidia en la fabricación de chips. No están solos, ya que muchas nuevas empresas están compitiendo por cuota de mercado, al igual que los gigantes de los chips, incluido AMD. Desafiar a un titular dominante es extremadamente difícil. Al menos en este caso, ampliar las fuentes de estos chips y reducir el precio de la tecnología escasa será clave para desarrollar y difundir la ola de innovación del AIGC.
06 La próxima ola de IA
A pesar de las limitaciones de los modelos y aplicaciones de la generación actual, el futuro de AIGC es brillante. Probablemente haya varias razones detrás de este compromiso, pero quizás la más importante sea la escasez generacional de trabajadores en toda la economía, que seguirá impulsando la demanda de mayores niveles de automatización.
Aunque históricamente la IA y la automatización se han considerado separadas, con la llegada del AIGC, esta visión está cambiando. La tecnología se está convirtiendo cada vez más en un motor de automatización y productividad. Mike Knoop, cofundador de la empresa de flujo de trabajo Zapier, se refirió a este fenómeno en un reciente podcast Eye on AI y dijo: "La IA y la automatización se están colapsando en una sola cosa".
Por supuesto, McKinsey cree esto. "AIGC está preparado para desencadenar la próxima ola de productividad", dijeron en un informe reciente. Y no están solos. Por ejemplo, Goldman Sachs dijo que una nueva generación de inteligencia artificial podría aumentar el PIB mundial en un 7%.
Ya sea que estemos o no en la cima de la generación actual de IA, es claramente un área que continuará evolucionando y generando debates en toda la empresa. Si bien los desafíos son grandes, también lo son las oportunidades, especialmente en un mundo ávido de innovación y eficiencia. La batalla por el dominio de la GPU es solo una instantánea de esta narrativa en desarrollo, un prólogo del futuro capítulo de la inteligencia artificial y la informática.
Referencias: