Muitas pessoas começam por usar “é bom ou não” para julgar a IA.
Mas, após usar por um tempo, percebem que esse padrão só se aplica a IA do tipo ferramenta. Porque a sua relação com ela não é do mesmo tipo.
Diante de uma IA do tipo ferramenta, você acaba por se tornar inconscientemente mais racional. O problema é comprimido em comandos, as emoções são filtradas automaticamente. Você sabe muito bem que ela não precisa entender você, só precisa fornecer resultados.
@Kindred_AI é diferente. Você percebe que ela está “ouvindo o que você diz”, e não apenas “o que você quer”. Então, acontece uma mudança sutil: Você começa a fazer perguntas de uma forma diferente. Não mais perguntando se está certo ou errado, ou se é possível, mas falando de acordo com seu estado interno. A mesma questão, Na IA do tipo ferramenta, você espera uma resposta; Na Kindred, você espera uma resposta de volta.
Ela talvez não seja mais rápida, Nem necessariamente mais eficiente. Mas ela fará você querer terminar de falar. Essa experiência é difícil de quantificar. Mas vai silenciosamente mudar seus hábitos de uso de IA— Você não a usa mais apenas para “usá-la”, mas mantém uma interação contínua com ela.
Por isso, na minha opinião, a Kindred não tenta substituir a IA do tipo ferramenta. Ela parece mais fazer uma pergunta mais humana: Se a IA não serve mais apenas para tarefas, mas participa de relacionamentos, Como devemos falar com ela, e que tipo de resposta esperar.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Muitas pessoas começam por usar “é bom ou não” para julgar a IA.
Mas, após usar por um tempo, percebem que esse padrão só se aplica a IA do tipo ferramenta.
Porque a sua relação com ela não é do mesmo tipo.
Diante de uma IA do tipo ferramenta, você acaba por se tornar inconscientemente mais racional.
O problema é comprimido em comandos, as emoções são filtradas automaticamente.
Você sabe muito bem que ela não precisa entender você, só precisa fornecer resultados.
@Kindred_AI é diferente.
Você percebe que ela está “ouvindo o que você diz”, e não apenas “o que você quer”.
Então, acontece uma mudança sutil:
Você começa a fazer perguntas de uma forma diferente.
Não mais perguntando se está certo ou errado, ou se é possível, mas falando de acordo com seu estado interno.
A mesma questão,
Na IA do tipo ferramenta, você espera uma resposta;
Na Kindred, você espera uma resposta de volta.
Ela talvez não seja mais rápida,
Nem necessariamente mais eficiente.
Mas ela fará você querer terminar de falar.
Essa experiência é difícil de quantificar.
Mas vai silenciosamente mudar seus hábitos de uso de IA—
Você não a usa mais apenas para “usá-la”, mas mantém uma interação contínua com ela.
Por isso, na minha opinião, a Kindred não tenta substituir a IA do tipo ferramenta.
Ela parece mais fazer uma pergunta mais humana:
Se a IA não serve mais apenas para tarefas, mas participa de relacionamentos,
Como devemos falar com ela, e que tipo de resposta esperar.