Thế giới tràn đang tràn ngập đủ các loại chatbot AI, nhưng công nghệ này vẫn chưa hoàn thiện, liên tục gây tranh cãi và lo ngại.
Trong thập niên 1960, một chương trình máy tính có tên Eliza được phát triển nhằm mô phỏng trải nghiệm trò chuyện với một bác sĩ tâm lý trị liệu. Một người tham gia thử nghiệm chia sẻ bạn trai nói cô "trầm cảm suốt cả ngày", Eliza đáp lại: "Tôi rất tiếc khi biết cô đang trầm cảm".
Eliza được coi là chatbot đầu tiên trên thế giới, dù không linh hoạt như các phần mềm tương tự hiện nay. Nó hoạt động dựa trên những hiểu biết về ngôn ngữ tự nhiên, phản ứng với từ khóa cụ thể và đưa ra hội thoại phù hợp với người dùng. Joseph Weizenbaum, người tạo ra Eliza, khẳng định trong tài liệu năm 1966 rằng "nhiều người không thể tin Eliza là chương trình máy tính và không phải người thật".
Tuy nhiên, Weizenbaum cho rằng đây là điều đáng lo ngại. Những người tương tác với Eliza sẵn sàng mở lòng với nó, ngay cả khi biết đây chỉ là chương trình máy tính.
"Eliza cho thấy thật dễ dàng để tạo ảo tưởng về sự thấu hiểu, từ đó khiến những gì nó đưa ra đáng tin cậy hơn. Một mối nguy hiểm đang tiềm ẩn ở đó", ông cho hay. Trong giai đoạn cuối sự nghiệp, Weizenbaum liên tục cảnh báo về việc cho máy móc quá nhiều trách nhiệm, cũng như chỉ trích nặng nề AI.
Giao diện trò chuyện của Eliza. Ảnh: CNN
Câu chuyện của Weizenbaum dự báo trước về sự kỳ vọng gắn liền với công nghệ AI. Khả năng trò chuyện của phần mềm với con người tiếp tục làm nhiều người lo ngại, cho rằng nó đang tạo ra cảm giác sai lầm rằng máy móc có thể là thứ gắn kết với người.
Blake Lemoine, cựu kỹ sư Google, từng gây chú ý hồi tháng 6 khi công bố đoạn chat giữa ông và AI có tên LaMDA cùng nhận xét nó có "tư duy như đứa trẻ". Tuyên bố của Lemoine hứng chịu sự chỉ trích từ cộng đồng AI và bản thân ông cũng bị Google sa thải sau đó.
Những loại chatbot hiện đại có thể dẫn tới những phản ứng tâm lý mạnh mẽ từ người dùng nếu hoạt động không như thiết kế, hay mô phỏng chuẩn xác những gì chúng được học và đưa ra phát biểu phân biệt chủng tộc và gây sốc.
Dù vậy, những người ủng hộ công nghệ cho rằng chatbot có thể hợp lý hóa các công việc chăm sóc khách hàng và tăng hiệu quả trong nhiều ngành. Công nghệ này đứng sau nhiều trợ lý ảo mà lượng lớn người dùng tiếp xúc hàng ngày, thậm chí mang lại sự đồng hành cho những người đơn độc, cao tuổi hay sống biệt lập.
Những người khác lại cảnh báo công nghệ đứng sau chatbot vận hành bằng AI vẫn bị giới hạn hơn nhiều so với kỳ vọng. "Chúng rất giỏi giả dạng con người và có vẻ giống người, nhưng không đủ sâu sắc. Chúng chỉ là những kẻ giả mạo bên ngoài, không hiểu mình đang nói gì", Gary Marcus, nhà nghiên cứu AI tại Mỹ, nhận xét.
Sự tiến hóa của chatbot
Sanjeev P. Khudanpur, chuyên gia về công nghệ ngôn ngữ tại Đại học Johns Hopkins (Mỹ), từng trò chuyện với Eliza khi còn đi học, nhưng ông không mất nhiều thời gian để phát hiện những hạn chế của nó. "Eliza có thể mô phỏng một cuộc trò chuyện bằng văn bản trong khoảng 10 câu, trước khi người dùng nhận ra nó không thực sự thông minh và chỉ đang tìm cách kéo dài câu chuyện", Khudanpur nói.
Trong hàng chục năm sau đó, bắt đầu xuất hiện sự chuyển dịch ra xa ý tưởng "trò chuyện với máy tính" và tập trung vào "hội thoại hướng mục đích". Ví dụ cụ thể là Amazon Alexa và Apple Siri, khi chúng thường được người dùng yêu cầu thực hiện các nhiệm vụ cụ thể như mua vé máy bay, xem thời tiết hay bật nhạc.
"Chúng ứng dụng công nghệ tương tự những chatbot đời đầu, nhưng không thể gọi Alexa và Siri là chatbot. Nên mô tả chúng là trợ lý giọng nói hoặc trợ lý kỹ thuật số, được thiết kế để giúp người dùng thực hiện các công việc cụ thể", Khudanpur cho hay.
Joseph Weizenbaum, người phát triển Eliza, hồi năm 2005. Ảnh: CNN.
Có giai đoạn đình trệ kéo dài nhiều năm với công nghệ này, cho đến khi Internet trở nên phổ biến. "Sự đột phá đã xuất hiện trong thiên niên kỷ này với sự trỗi dậy của các công ty triển khai thành công đội ngũ nhân viên kỹ thuật số để thực hiện các công việc thường nhật, mang tính lặp lại", Khudanpur nhận xét.
Chatbot và những vấn đề xã hội
Đầu thập niên 2000, giới nghiên cứu bắt đầu xem xét lại ý tưởng phát triển chatbot với khả năng trò chuyện kéo dài với con người. Chúng thường được huấn luyện bằng lượng lớn dữ liệu từ Internet và phải học cách mô phỏng chính xác cách nói chuyện của người, nhưng đi kèm nguy cơ phản ánh những điều tồi tệ nhất trên mạng.
Thử nghiệm công khai với chatbot Tay của Microsoft năm 2015 là ví dụ cụ thể. Nó được thiết kế để nói chuyện như một thiếu niên, nhưng nhanh chóng "học" được cách nói bậy, kích động và phân biệt chủng tộc, đến mức bị Microsoft ngừng vận hành.
Điều này đang lặp lại với BlenderBot3, được Meta tung ra hồi đầu tháng. Chatbot này tuyên bố Donald Trump vẫn là Tổng thống Mỹ và khẳng định có nhiều bằng chứng cho thấy gian lận trong bầu cử tổng thống năm 2020, kèm nhiều phát biểu gây tranh cãi khác.
Chatbot Tay được đưa lên Twitter nhưng nhanh chóng bị "xóa sổ" vì học các từ ngữ xấu.
"Chưa rõ làm cách nào để phát triển chatbot an toàn và đáng tin cậy, bất chấp những tiến bộ sau thời Eliza và lượng lớn dữ liệu mới được dùng để huấn luyện các phần mềm xử lý ngôn ngữ", Marcus nói.
Trong khi đó, Khudanpur tỏ ra lạc quan với tiềm năng của chatbot. "Hãy tưởng tượng chatbot có thể đọc mọi bài viết học thuật trong lĩnh vực của tôi. Điều đó giúp tôi không phải đọc chúng, mà chỉ cần đặt câu hỏi và trao đổi với chatbot. Nói cách khác, đó là một bản sao khác của tôi với siêu năng lực", ông nêu quan điểm.
Điệp Anh (theo CNN)