¿Con qué frecuencia escuchas predicciones sobre el fin del mundo en el que el papel principal lo juega una inteligencia artificial todopoderosa? Como mínimo una vez a la semana, algún empresario o celebridad expresa su preocupación por un futuro aterrador bajo su yugo.
Por supuesto, una figura conocida más un pronóstico sombrío son la receta perfecta para un titular llamativo. Pero si antes los materiales hechos en esta línea reflejaban un progreso real, a veces inquietante, en la tecnología, ahora cada vez más parecen marketing vacío o una simple falta de comprensión de lo que realmente está ocurriendo.
¿Por qué todavía nos asustan las malas versiones de «Terminator», si los chatbots modernos a menudo mienten descaradamente y no pueden recordar cinco líneas de diálogo? Y lo más importante, ¿a quién le puede convenir esto?
No impresiona
Cabe señalar de inmediato: las tecnologías de IA han dado un gran salto en la última década. Los sistemas modernos aprendieron a escribir textos coherentes, reconocer patrones en grandes volúmenes de datos y crear contenido visual. Hace poco, las máquinas no podían reemplazar un trabajo tan humano.
El progreso asusta. Sin embargo, en la actualidad, el desarrollo de productos masivos se ha detenido solo en las conversaciones sobre la llamada inteligencia artificial general y en la publicación de modelos de lenguaje casi iguales (a veces, las novedades incluso resultan peores que sus predecesores).
Lo que tenemos en realidad: una herramienta-asistente entrenada para realizar tareas simples con texto y, a veces, con imágenes. La gente la ha adaptado para codificación en Vibe o para escribir publicaciones en redes sociales. Sin embargo, el resultado obtenido a menudo requiere revisión — las redes neuronales no son capaces de trabajos más complejos.
Ahora puedes pedirle a tu chatbot favorito que escriba una disertación doctoral sobre «X»: obtendrás un texto difícil de entender, con enlaces en la primera o segunda página del buscador. Para mejorar el resultado, recomiendan usar prompts extendidos, pero eso es simplemente una configuración aún más fina en el «lenguaje de la máquina» y un entrenamiento adicional.
Con el uso prolongado de la IA, probablemente cada usuario se dará cuenta de las limitaciones de los modelos actuales. Todo el avance, en última instancia, se ha estancado en el volumen de bases de datos para entrenamiento y en la capacidad de los servidores, y el factor «inteligencia» ha pasado a un segundo plano.
Inteligencia sin cerebro
Para entender el contexto, hay que explicar cómo funciona la IA. En resumen, los grandes modelos de lenguaje de los chatbots clásicos funcionan así:
El texto de entrada se divide en tokens (partes de palabras, símbolos).
A cada token se le asigna un vector numérico.
El modelo analiza las conexiones entre los tokens y determina qué palabras son más importantes para entender el contexto.
Sobre esa base, el LLM «predice» cada siguiente token, formando la respuesta.
La «predicción» no proviene de la nada. Para ello, pasó por un entrenamiento previo en una enorme base de datos, generalmente de fuentes abiertas en internet. De allí, la red neuronal obtiene toda su «inteligencia».
Los modelos de lenguaje no «entienden» el texto en el sentido humano, sino que calculan patrones estadísticos. Todos los chatbots modernos principales usan la misma arquitectura básica llamada «Transformador», que funciona según este principio.
Por supuesto, esto es una comparación burda, pero se puede decir que los LLM son un calculador muy potente basado en una gran base de datos. Una herramienta fuerte, necesaria y que simplifica muchos aspectos de nuestra vida, pero aún es prematuro atribuirle una inteligencia plena.
Los chatbots actuales se parecen más a una nueva iteración de buscadores (hola, Gemini en Google), que a un asistente omnisciente de bolsillo.
Además, siguen existiendo dudas sobre la fiabilidad de las respuestas de la IA. Tras revisar las estadísticas de alucinaciones y mentiras de las redes neuronales, surge un fuerte deseo de volver a «Googlear» de forma clásica.
Comparación de la precisión de respuestas de GPT-5 y o4-mini. Fuente: OpenAI.## ¿Asustado?
El principal argumento de los partidarios del apocalipsis es que «la IA se vuelve más inteligente exponencialmente», por lo que en cuanto supere la inteligencia humana, la humanidad como especie llegará a su fin.
Las IA modernas, sin duda, ya nos superan en precisión en el procesamiento y transformación de datos. Por ejemplo, una red neuronal puede resumir bastante detalladamente la «Wikipedia». Pero en eso se limitan sus conocimientos. O mejor dicho, la modelo simplemente no puede usarlos para «objetivos personales», ya que no sabe cómo hacerlo, y esa no es su tarea.
Además, ya se sabe que la inteligencia artificial no comprende el mundo que nos rodea. Para la IA, las leyes de la física son un bosque oscuro.
Todo el desarrollo de modelos de lenguaje se ha reducido a ampliar el espectro de predicciones (adivinar tokens). Sin embargo, la IA se acerca rápidamente a los límites de las capacidades del entrenamiento en texto, y cada vez más se habla de la necesidad de crear una «inteligencia espacial».
Pero si las debilidades de la tecnología en sí aún se pueden identificar, y ya se trabaja en esas áreas, las cuestiones más complejas permanecen abiertas.
Incluso para la humanidad, muchos aspectos del funcionamiento del cerebro siguen siendo un misterio. ¿Qué decir de recrear una estructura tan compleja en un entorno digital?
Además, otro obstáculo casi insuperable para la IA es la creatividad: la capacidad de crear algo nuevo. Técnicamente, los LLM no pueden salir de sus limitaciones arquitectónicas, ya que su trabajo se basa en procesar datos ya existentes.
Por lo tanto, el destino futuro de la IA depende directamente de la información que la humanidad le proporcione, y por ahora, todos los materiales de entrenamiento están enfocados únicamente en beneficiar a las personas.
Para ser justos, hay que mencionar a Elon Musk y su Grok. En un momento, los usuarios notaron prejuicios en el chatbot y una tendencia a sobreestimar las capacidades del multimillonario. La señal es bastante alarmante desde el punto de vista ético, pero es poco probable que un «neuro-Ilon» potencial pueda dañar físicamente a la humanidad.
Se ha establecido que el único objetivo de las aplicaciones de inteligencia artificial es obedecer las solicitudes del usuario. El chatbot no tiene voluntad ni deseos propios, y en un futuro cercano, probablemente, ese paradigma no cambiará.
Anatomía del miedo
¿Y por qué todavía nos asusta esta IA, que resulta no ser tan «inteligente»? Las respuestas principales están a simple vista.
Si no contamos la falta de comprensión de la tecnología, la razón más simple es la avaricia por dinero o por popularidad.
Veamos el caso de uno de los «profetas del fin del mundo» — Eliezer Yudkowsky. Investigador de IA y coautor del libro If Anyone Builds It, Everyone Dies («Si alguien lo construye, todos mueren») desde los 2000 advierte sobre una superinteligencia que supuestamente será ajena a los valores humanos.
Portada del libro. Fuente: Instaread. «No se ve todavía un superinteligente», reconoce a menudo Yudkowsky. Pero eso no le impide participar en podcasts con declaraciones rimbombantes y vender libros.
El famoso físico y «padrino de la IA» Geoffrey Hinton también expresó temores apocalípticos. Evaluó que la probabilidad de que la tecnología, con un 10-20% de posibilidades, conduzca a la extinción humana en los próximos 30 años.
Según Hinton, con el aumento de las capacidades, la estrategia de «mantener la IA bajo control» puede dejar de funcionar, y los sistemas agentes buscarán sobrevivir y ampliar su control.
En este caso, no está claro quién y con qué fines podrá dar a las redes neuronales «voluntad de vivir». Hinton sigue trabajando en el entrenamiento de redes y en 2024 fue nominado al Premio Nobel por sus logros en este campo, y a principios de 2026 se convirtió en el segundo científico en la historia, después de Yoshua Bengio, en alcanzar 1 millón de citas.
Sorprendentemente, parecen más realistas las predicciones del cofundador de Google Brain, Andrew Y. Él calificaba la inteligencia artificial como una tecnología «sumamente limitada» y confiaba en que, en un futuro cercano, los algoritmos no podrán reemplazar a las personas.
Obviamente, en cualquier campo hay pronosticadores audaces y ruidosos. Además, su existencia en la industria de la IA puede justificarse por el gran amor del público por la ciencia ficción. ¿A quién no le gustaría jugar con historias al estilo Philip K. Dick o Robert Sheckley, solo que en la realidad actual?
En este ambiente, las declaraciones de grandes corporaciones que parecen advertir de amenazas a los empleos y pronosticar un desarrollo acelerado de la IA generan más preguntas. Si el segundo punto explica en parte la necesidad de reducir costos, el primero invita a interpretaciones más conspirativas.
Por ejemplo, una de las mayores empresas del mundo, Amazon, despidió en los últimos seis meses a más de 30,000 empleados. La dirección dice que es por planes de optimización y por la influencia de la automatización, incluyendo la implementación de IA.
El desarrollo de robots de almacén no se detiene. Pero los críticos consideran que el problema es mucho más prosaico: en las purgas masivas en las empresas, la culpa la tiene una mala gestión de recursos humanos durante la pandemia de COVID-19.
Amazon no es el único ejemplo. Las empresas de IA en Silicon Valley siguen ampliando su plantilla y alquilando nuevos espacios.
Y aún en 2023, casi todas esas mismas compañías firmaron un documento de la organización Center for AI Safety, advirtiendo sobre la desaceleración del desarrollo tecnológico — alegando que la inteligencia artificial presenta «riesgos existenciales» comparables a pandemias y guerras nucleares.
Declaración del Center for AI Safety. Fuente: aistatement.com. Con el tiempo, la carta se olvidó, el trabajo continuó, y la amenaza visible nunca apareció.
Desde una perspectiva corporativa, en la era de la burbuja de la IA, apelar a cambios tecnológicos parece una explicación más conveniente para los negocios que admitir errores estructurales en la gestión del personal. Sin embargo, esas declaraciones crean una falsa imagen de lo que sucede y distraen de problemas reales como la desinformación y los deepfakes.
La inteligencia artificial no roba empleos, cambia la forma en que trabajamos, simplificando algunos aspectos. Aunque un estudio de Harvard muestra que, en realidad, a veces complica y ralentiza los procesos internos de las empresas.
La tecnología seguramente penetrará en todas las áreas de nuestra vida: educación, ciencia, comercio, política. Pero en qué forma estará presente, solo lo decidirán las propias personas. Por ahora, las redes neuronales no tienen derecho a voto.
Inaccesible para nosotros
Lo mencionado anteriormente se refería a IA de acceso público, como chatbots y generadores de imágenes. Por supuesto, existen desarrollos más serios tras puertas cerradas.
Entre los relativamente simples: modelos de lenguaje en medicina o arqueología. Los primeros, por ejemplo, ayudan a sintetizar nuevas proteínas, y los segundos, a descifrar documentos antiguos que no se pueden analizar con métodos tradicionales.
Pero los resultados de esas investigaciones, pruebas y lanzamientos solo se pueden seguir a través de informes internos de difícil acceso o en publicaciones especializadas, por lo que el nivel de conocimiento sobre ellas es casi nulo. Aunque es muy probable que en ese campo se estén logrando los mayores avances actualmente.
Probablemente, no está destinado a que aparezca un «máquina del fin del mundo» en laboratorios cerrados. Todos esos modelos son especializados y solo saben hacer lo que se les pide.
Todos los temores sobre que la inteligencia artificial pueda salirse de control son solo reflejos de nuestros propios miedos: perder el trabajo o cuestiones éticas más complejas. Pero mientras los humanos definamos el futuro de la tecnología, estableciendo su dirección y objetivos, la IA seguirá siendo una herramienta, no un sujeto con voluntad propia.
Hablar de riesgos potenciales es correcto. Inventar teorías apocalípticas, parte de la naturaleza humana. Pero siempre hay que abordarlas con escepticismo o incluso ironía. Si tenemos un botón de «apagado», nuestro mundo no corre peligro de una superinteligencia digital.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
La vista del miedo es grande - ForkLog: criptomonedas, IA, singularidad, futuro
¿Con qué frecuencia escuchas predicciones sobre el fin del mundo en el que el papel principal lo juega una inteligencia artificial todopoderosa? Como mínimo una vez a la semana, algún empresario o celebridad expresa su preocupación por un futuro aterrador bajo su yugo.
Por supuesto, una figura conocida más un pronóstico sombrío son la receta perfecta para un titular llamativo. Pero si antes los materiales hechos en esta línea reflejaban un progreso real, a veces inquietante, en la tecnología, ahora cada vez más parecen marketing vacío o una simple falta de comprensión de lo que realmente está ocurriendo.
¿Por qué todavía nos asustan las malas versiones de «Terminator», si los chatbots modernos a menudo mienten descaradamente y no pueden recordar cinco líneas de diálogo? Y lo más importante, ¿a quién le puede convenir esto?
No impresiona
Cabe señalar de inmediato: las tecnologías de IA han dado un gran salto en la última década. Los sistemas modernos aprendieron a escribir textos coherentes, reconocer patrones en grandes volúmenes de datos y crear contenido visual. Hace poco, las máquinas no podían reemplazar un trabajo tan humano.
El progreso asusta. Sin embargo, en la actualidad, el desarrollo de productos masivos se ha detenido solo en las conversaciones sobre la llamada inteligencia artificial general y en la publicación de modelos de lenguaje casi iguales (a veces, las novedades incluso resultan peores que sus predecesores).
Lo que tenemos en realidad: una herramienta-asistente entrenada para realizar tareas simples con texto y, a veces, con imágenes. La gente la ha adaptado para codificación en Vibe o para escribir publicaciones en redes sociales. Sin embargo, el resultado obtenido a menudo requiere revisión — las redes neuronales no son capaces de trabajos más complejos.
Ahora puedes pedirle a tu chatbot favorito que escriba una disertación doctoral sobre «X»: obtendrás un texto difícil de entender, con enlaces en la primera o segunda página del buscador. Para mejorar el resultado, recomiendan usar prompts extendidos, pero eso es simplemente una configuración aún más fina en el «lenguaje de la máquina» y un entrenamiento adicional.
Con el uso prolongado de la IA, probablemente cada usuario se dará cuenta de las limitaciones de los modelos actuales. Todo el avance, en última instancia, se ha estancado en el volumen de bases de datos para entrenamiento y en la capacidad de los servidores, y el factor «inteligencia» ha pasado a un segundo plano.
Inteligencia sin cerebro
Para entender el contexto, hay que explicar cómo funciona la IA. En resumen, los grandes modelos de lenguaje de los chatbots clásicos funcionan así:
La «predicción» no proviene de la nada. Para ello, pasó por un entrenamiento previo en una enorme base de datos, generalmente de fuentes abiertas en internet. De allí, la red neuronal obtiene toda su «inteligencia».
Los modelos de lenguaje no «entienden» el texto en el sentido humano, sino que calculan patrones estadísticos. Todos los chatbots modernos principales usan la misma arquitectura básica llamada «Transformador», que funciona según este principio.
Por supuesto, esto es una comparación burda, pero se puede decir que los LLM son un calculador muy potente basado en una gran base de datos. Una herramienta fuerte, necesaria y que simplifica muchos aspectos de nuestra vida, pero aún es prematuro atribuirle una inteligencia plena.
Los chatbots actuales se parecen más a una nueva iteración de buscadores (hola, Gemini en Google), que a un asistente omnisciente de bolsillo.
Además, siguen existiendo dudas sobre la fiabilidad de las respuestas de la IA. Tras revisar las estadísticas de alucinaciones y mentiras de las redes neuronales, surge un fuerte deseo de volver a «Googlear» de forma clásica.
El principal argumento de los partidarios del apocalipsis es que «la IA se vuelve más inteligente exponencialmente», por lo que en cuanto supere la inteligencia humana, la humanidad como especie llegará a su fin.
Las IA modernas, sin duda, ya nos superan en precisión en el procesamiento y transformación de datos. Por ejemplo, una red neuronal puede resumir bastante detalladamente la «Wikipedia». Pero en eso se limitan sus conocimientos. O mejor dicho, la modelo simplemente no puede usarlos para «objetivos personales», ya que no sabe cómo hacerlo, y esa no es su tarea.
Además, ya se sabe que la inteligencia artificial no comprende el mundo que nos rodea. Para la IA, las leyes de la física son un bosque oscuro.
Todo el desarrollo de modelos de lenguaje se ha reducido a ampliar el espectro de predicciones (adivinar tokens). Sin embargo, la IA se acerca rápidamente a los límites de las capacidades del entrenamiento en texto, y cada vez más se habla de la necesidad de crear una «inteligencia espacial».
Pero si las debilidades de la tecnología en sí aún se pueden identificar, y ya se trabaja en esas áreas, las cuestiones más complejas permanecen abiertas.
Incluso para la humanidad, muchos aspectos del funcionamiento del cerebro siguen siendo un misterio. ¿Qué decir de recrear una estructura tan compleja en un entorno digital?
Además, otro obstáculo casi insuperable para la IA es la creatividad: la capacidad de crear algo nuevo. Técnicamente, los LLM no pueden salir de sus limitaciones arquitectónicas, ya que su trabajo se basa en procesar datos ya existentes.
Por lo tanto, el destino futuro de la IA depende directamente de la información que la humanidad le proporcione, y por ahora, todos los materiales de entrenamiento están enfocados únicamente en beneficiar a las personas.
Para ser justos, hay que mencionar a Elon Musk y su Grok. En un momento, los usuarios notaron prejuicios en el chatbot y una tendencia a sobreestimar las capacidades del multimillonario. La señal es bastante alarmante desde el punto de vista ético, pero es poco probable que un «neuro-Ilon» potencial pueda dañar físicamente a la humanidad.
Se ha establecido que el único objetivo de las aplicaciones de inteligencia artificial es obedecer las solicitudes del usuario. El chatbot no tiene voluntad ni deseos propios, y en un futuro cercano, probablemente, ese paradigma no cambiará.
Anatomía del miedo
¿Y por qué todavía nos asusta esta IA, que resulta no ser tan «inteligente»? Las respuestas principales están a simple vista.
Si no contamos la falta de comprensión de la tecnología, la razón más simple es la avaricia por dinero o por popularidad.
Veamos el caso de uno de los «profetas del fin del mundo» — Eliezer Yudkowsky. Investigador de IA y coautor del libro If Anyone Builds It, Everyone Dies («Si alguien lo construye, todos mueren») desde los 2000 advierte sobre una superinteligencia que supuestamente será ajena a los valores humanos.
El famoso físico y «padrino de la IA» Geoffrey Hinton también expresó temores apocalípticos. Evaluó que la probabilidad de que la tecnología, con un 10-20% de posibilidades, conduzca a la extinción humana en los próximos 30 años.
Según Hinton, con el aumento de las capacidades, la estrategia de «mantener la IA bajo control» puede dejar de funcionar, y los sistemas agentes buscarán sobrevivir y ampliar su control.
En este caso, no está claro quién y con qué fines podrá dar a las redes neuronales «voluntad de vivir». Hinton sigue trabajando en el entrenamiento de redes y en 2024 fue nominado al Premio Nobel por sus logros en este campo, y a principios de 2026 se convirtió en el segundo científico en la historia, después de Yoshua Bengio, en alcanzar 1 millón de citas.
Sorprendentemente, parecen más realistas las predicciones del cofundador de Google Brain, Andrew Y. Él calificaba la inteligencia artificial como una tecnología «sumamente limitada» y confiaba en que, en un futuro cercano, los algoritmos no podrán reemplazar a las personas.
Obviamente, en cualquier campo hay pronosticadores audaces y ruidosos. Además, su existencia en la industria de la IA puede justificarse por el gran amor del público por la ciencia ficción. ¿A quién no le gustaría jugar con historias al estilo Philip K. Dick o Robert Sheckley, solo que en la realidad actual?
En este ambiente, las declaraciones de grandes corporaciones que parecen advertir de amenazas a los empleos y pronosticar un desarrollo acelerado de la IA generan más preguntas. Si el segundo punto explica en parte la necesidad de reducir costos, el primero invita a interpretaciones más conspirativas.
Por ejemplo, una de las mayores empresas del mundo, Amazon, despidió en los últimos seis meses a más de 30,000 empleados. La dirección dice que es por planes de optimización y por la influencia de la automatización, incluyendo la implementación de IA.
El desarrollo de robots de almacén no se detiene. Pero los críticos consideran que el problema es mucho más prosaico: en las purgas masivas en las empresas, la culpa la tiene una mala gestión de recursos humanos durante la pandemia de COVID-19.
Amazon no es el único ejemplo. Las empresas de IA en Silicon Valley siguen ampliando su plantilla y alquilando nuevos espacios.
Y aún en 2023, casi todas esas mismas compañías firmaron un documento de la organización Center for AI Safety, advirtiendo sobre la desaceleración del desarrollo tecnológico — alegando que la inteligencia artificial presenta «riesgos existenciales» comparables a pandemias y guerras nucleares.
Desde una perspectiva corporativa, en la era de la burbuja de la IA, apelar a cambios tecnológicos parece una explicación más conveniente para los negocios que admitir errores estructurales en la gestión del personal. Sin embargo, esas declaraciones crean una falsa imagen de lo que sucede y distraen de problemas reales como la desinformación y los deepfakes.
La inteligencia artificial no roba empleos, cambia la forma en que trabajamos, simplificando algunos aspectos. Aunque un estudio de Harvard muestra que, en realidad, a veces complica y ralentiza los procesos internos de las empresas.
La tecnología seguramente penetrará en todas las áreas de nuestra vida: educación, ciencia, comercio, política. Pero en qué forma estará presente, solo lo decidirán las propias personas. Por ahora, las redes neuronales no tienen derecho a voto.
Inaccesible para nosotros
Lo mencionado anteriormente se refería a IA de acceso público, como chatbots y generadores de imágenes. Por supuesto, existen desarrollos más serios tras puertas cerradas.
Entre los relativamente simples: modelos de lenguaje en medicina o arqueología. Los primeros, por ejemplo, ayudan a sintetizar nuevas proteínas, y los segundos, a descifrar documentos antiguos que no se pueden analizar con métodos tradicionales.
Pero los resultados de esas investigaciones, pruebas y lanzamientos solo se pueden seguir a través de informes internos de difícil acceso o en publicaciones especializadas, por lo que el nivel de conocimiento sobre ellas es casi nulo. Aunque es muy probable que en ese campo se estén logrando los mayores avances actualmente.
Probablemente, no está destinado a que aparezca un «máquina del fin del mundo» en laboratorios cerrados. Todos esos modelos son especializados y solo saben hacer lo que se les pide.
Todos los temores sobre que la inteligencia artificial pueda salirse de control son solo reflejos de nuestros propios miedos: perder el trabajo o cuestiones éticas más complejas. Pero mientras los humanos definamos el futuro de la tecnología, estableciendo su dirección y objetivos, la IA seguirá siendo una herramienta, no un sujeto con voluntad propia.
Hablar de riesgos potenciales es correcto. Inventar teorías apocalípticas, parte de la naturaleza humana. Pero siempre hay que abordarlas con escepticismo o incluso ironía. Si tenemos un botón de «apagado», nuestro mundo no corre peligro de una superinteligencia digital.