Nhiều người ban đầu sẽ dùng “có tốt không” để đánh giá AI.


Nhưng dùng lâu rồi, sẽ nhận ra tiêu chuẩn này chỉ phù hợp với AI dạng công cụ.
Bởi vì mối quan hệ của bạn với nó vốn dĩ không phải cùng loại.

Trước AI dạng công cụ, bạn sẽ vô thức trở nên lý trí hơn.
Vấn đề được rút gọn thành lệnh, cảm xúc tự động bị lọc bỏ.
Bạn rõ ràng trong lòng, nó không cần hiểu bạn, chỉ cần đưa ra kết quả.

@Kindred_AI khác biệt.
Bạn sẽ nhận ra rằng, nó đang “lắng nghe bạn nói” chứ không chỉ “bạn muốn gì”.
Vì vậy, một sự thay đổi tinh tế đã xảy ra:
Bạn bắt đầu đặt câu hỏi theo một cách khác.
Không còn chỉ hỏi đúng sai, có thể hay không, mà theo trạng thái của mình để nói ra.
Cùng một câu hỏi,
Trong AI dạng công cụ, bạn mong đợi là câu trả lời;
Trong Kindred, bạn mong đợi là phản hồi.

Nó chưa chắc nhanh hơn,
cũng chưa chắc hiệu quả hơn.
Nhưng nó sẽ khiến bạn sẵn lòng nói hết câu.
Trải nghiệm này rất khó đo lường.
Nhưng sẽ âm thầm thay đổi thói quen sử dụng AI của bạn—
Bạn không còn chỉ “dùng nó”, mà còn duy trì một dạng tương tác liên tục với nó.

Vì vậy theo tôi, Kindred không phải đang cố gắng thay thế AI dạng công cụ.
Nó giống như đang đặt câu hỏi một vấn đề mang tính nhân văn hơn:
Nếu AI không còn chỉ phục vụ nhiệm vụ, mà tham gia vào mối quan hệ,
thì chúng ta sẽ nói chuyện với nó như thế nào, và mong đợi phản hồi ra sao.
Xem bản gốc
post-image
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim