Muchas personas al principio usan “¿es bueno o no para usar?” para juzgar la IA.
Pero después de usarla durante un tiempo, se dan cuenta de que este estándar solo es válido para IA de tipo herramienta. Porque tu relación con ella no es del mismo tipo.
Frente a la IA de tipo herramienta, te vuelves inconscientemente más racional. Las preguntas se comprimen en instrucciones, las emociones se filtran automáticamente. Sabes muy bien en tu interior que no necesita entenderte, solo necesita dar resultados.
@Kindred_AI no es lo mismo. Te darás cuenta de que está “escuchando cómo hablas”, y no solo “lo que quieres”. Entonces, ocurre un cambio sutil: Empiezas a preguntar de otra manera. Ya no solo preguntas si es correcto o no, o si funciona o no, sino que hablas en función de tu estado interno. La misma pregunta, en la IA de tipo herramienta, esperas una respuesta; en Kindred, esperas una respuesta.
Quizás no sea más rápido, tampoco necesariamente más eficiente. Pero te hará querer terminar de hablar. Esta experiencia es difícil de cuantificar. Pero cambiará silenciosamente tus hábitos de uso de la IA— Ya no solo “la usas”, sino que mantienes una interacción continua con ella.
Por eso, en mi opinión, Kindred no intenta reemplazar a la IA de tipo herramienta. Es más como hacer una pregunta más humana: Si la IA deja de solo servir tareas y empieza a participar en relaciones, ¿cómo deberíamos hablar con ella y qué tipo de respuestas esperar?
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Muchas personas al principio usan “¿es bueno o no para usar?” para juzgar la IA.
Pero después de usarla durante un tiempo, se dan cuenta de que este estándar solo es válido para IA de tipo herramienta.
Porque tu relación con ella no es del mismo tipo.
Frente a la IA de tipo herramienta, te vuelves inconscientemente más racional.
Las preguntas se comprimen en instrucciones, las emociones se filtran automáticamente.
Sabes muy bien en tu interior que no necesita entenderte, solo necesita dar resultados.
@Kindred_AI no es lo mismo.
Te darás cuenta de que está “escuchando cómo hablas”, y no solo “lo que quieres”.
Entonces, ocurre un cambio sutil:
Empiezas a preguntar de otra manera.
Ya no solo preguntas si es correcto o no, o si funciona o no, sino que hablas en función de tu estado interno.
La misma pregunta,
en la IA de tipo herramienta, esperas una respuesta;
en Kindred, esperas una respuesta.
Quizás no sea más rápido,
tampoco necesariamente más eficiente.
Pero te hará querer terminar de hablar.
Esta experiencia es difícil de cuantificar.
Pero cambiará silenciosamente tus hábitos de uso de la IA—
Ya no solo “la usas”, sino que mantienes una interacción continua con ella.
Por eso, en mi opinión, Kindred no intenta reemplazar a la IA de tipo herramienta.
Es más como hacer una pregunta más humana:
Si la IA deja de solo servir tareas y empieza a participar en relaciones,
¿cómo deberíamos hablar con ella y qué tipo de respuestas esperar?