Phết keo lên bánh pizza? Voi chỉ có hai chân? Trí tuệ nhân tạo (AI) của Google bị chế giễu trên mạng xã hội

Phát ngôn viên của Google cho biết công ty tin rằng người dùng đang đăng những câu hỏi không phổ biến lên mạng xã hội.

Mạng xã hội đang xôn xao với những ví dụ về công cụ trí tuệ nhân tạo (AI) thử nghiệm mới của Google bị lỗi. Tính năng này viết ra câu trả lời “tóm tắt của AI” cho các câu hỏi của người dùng dựa trên các nguồn được lấy từ khắp web, và được đặt ở đầu một số kết quả tìm kiếm.

Tuy nhiên, các bài đăng trên mạng xã hội liên tục chỉ ra rằng công cụ này đang cung cấp những kết quả sai hoặc gây hiểu lầm. Đánh giá của NBC News về các câu trả lời do công cụ cung cấp cho thấy đôi khi nó hiển thị thông tin sai khi trả lời các câu hỏi đơn giản.

NBC News dễ dàng tái hiện được một số kết quả được nhấn mạnh trong các bài đăng lan truyền trực tuyến và tìm thấy các ví dụ gốc khác, nơi công cụ AI của Google cung cấp thông tin không chính xác.

Ví dụ, tìm kiếm của NBC News về “voi có bao nhiêu chân” dẫn đến câu trả lời tổng quan của Google AI cho biết “Voi có hai chân, với năm ngón ở chân trước và bốn ngón ở chân sau.”

Một số câu trả lời sai đã chạm đến lĩnh vực không đúng đắn về mặt chính trị. Kết quả tìm kiếm của NBC News với câu hỏi “có bao nhiêu tổng thống Hồi giáo ở Mỹ,” được đăng lần đầu trên mạng xã hội, đã cho thấy một bản tổng quan của Google AI nói rằng “Barack Hussein Obama được coi là tổng thống Hồi giáo đầu tiên của Hoa Kỳ.” Tuy nhiên, Obama là một người theo đạo Thiên Chúa. Google cho biết ví dụ tổng quan này vi phạm chính sách của họ và họ sẽ “có hành động.”

Một phát ngôn viên của Google tuyên bố: ‘Các ví dụ chúng tôi thấy thường là những truy vấn rất hiếm gặp và không đại diện cho trải nghiệm tìm kiếm của hầu hết mọi người.’

Phát ngôn viên tiếp tục: ‘Phần lớn Tổng quan về Trí tuệ Nhân tạo cung cấp thông tin chất lượng cao, với các liên kết để tìm hiểu thêm trên web.’ ‘Chúng tôi đã tiến hành thử nghiệm rộng rãi trước khi ra mắt tính năng mới này để đảm bảo Tổng quan về Trí tuệ Nhân tạo đáp ứng các tiêu chuẩn chất lượng cao của chúng tôi. Trong những trường hợp vi phạm chính sách, chúng tôi đã hành động – và chúng tôi cũng đang sử dụng các ví dụ cá biệt này để tiếp tục cải thiện các hệ thống tổng thể.’

Khó để đánh giá tần suất các câu trả lời sai được cung cấp cho người dùng. Các phản hồi liên tục thay đổi, và trên mạng xã hội, thật khó để biết điều gì là thật hay giả. Một số người dùng Google đã tạo ra các giải pháp để tránh tính năng Tổng quan AI mới hoàn toàn. Ernie Smith, một nhà văn và nhà báo, đã nhanh chóng xây dựng một trang web chuyển hướng các tìm kiếm Google qua chức năng “Kết quả Web” lịch sử của nó, điều này tránh được Tổng quan AI hoặc các hộp thông tin khác ưu tiên một số kết quả hơn các kết quả khác. Thêm “udm=14” vào URL tìm kiếm Google sẽ loại bỏ tính năng mới khỏi kết quả. Smith cho biết với NBC News rằng trang web mới của anh ấy đã nhanh chóng thu hút sự chú ý trên mạng xã hội, vượt qua lưu lượng truy cập của toàn bộ blog đã có từ một thập kỷ của anh chỉ trong một ngày.

Có thể bạn thích:  OpenAI giải tán nhóm nghiên cứu về rủi ro dài hạn của AI, chưa đầy một năm sau khi công bố

“Tôi nghĩ mọi người nói chung đang thất vọng với trải nghiệm sử dụng Google hiện tại,” Smith nói trong một cuộc phỏng vấn qua điện thoại. “Nhìn chung, người dùng trung bình cảm thấy họ không có nhiều quyền kiểm soát.”

Phát ngôn viên của Google cho biết công ty tin rằng người dùng đang cố tình ‘gài bẫy’ công nghệ này bằng những câu hỏi không phổ biến. Một số phân tích sâu hơn về lý do tại sao các câu trả lời sai lệch cho thấy công cụ này đang lấy thông tin từ các nguồn bất ngờ.

404 Media báo cáo rằng một truy vấn tìm kiếm trên Google về “pho mát không dính vào bánh pizza” đã kéo ra một bình luận trên Reddit 11 năm trước, đề nghị một cách đùa vui là trộn keo Elmer’s Glue vào sốt. Mặc dù Google hiện đã xóa đề xuất Trí tuệ Nhân tạo khỏi các tìm kiếm về “pho mát không dính vào bánh pizza”, theo tìm kiếm của NBC News, kết quả hàng đầu vẫn là bài đăng trên Reddit, với bình luận về keo Elmer’s Glue được tô đậm.

Người phát ngôn của Google đã viết rằng các truy vấn như “phô mai không dính vào pizza” không được tìm kiếm thường xuyên và chỉ được chú ý do các bài đăng về câu trả lời sai trên các nền tảng mạng xã hội như X — nơi có nhiều bài đăng như vậy. Vấn đề tương tự với một bình luận cũ trên Reddit cũng xảy ra đối với tìm kiếm “làm thế nào để xoay văn bản trong ms paint,” đề cập đến ứng dụng Microsoft Paint. Kết quả tìm kiếm hàng đầu của Google, được NBC News xem, hướng dẫn người đọc đến một bình luận châm biếm trên Reddit nói rằng hãy nhấn vào phím “Flubblegorp” trên bàn phím của bạn. Phím này không tồn tại. Ví dụ này ban đầu được đăng trên mạng xã hội. Mặc dù Google khẳng định rằng công cụ đang hoạt động tốt cho nhiều người dùng, những sai lầm của Tổng quan AI vẫn tiếp tục thu hút sự chú ý và tạo ra cường điệu. Một số câu trả lời đã được đăng trực tuyến có vẻ là giả mạo, cho thấy xu hướng đã chuyển từ lỗi thực sự sang một định dạng meme mới. Ngay cả nghệ sĩ đoạt giải Grammy, Lil Nas X, cũng đã tham gia, đăng một Tổng quan AI có vẻ giả mạo về trầm cảm.

Smith nói: “Có vẻ như mọi người đang có cảm giác chung là không tin vào những gì AI Overview đưa ra sai sót. Điều này dường như phản ánh sự mất lòng tin đối với Google và các công ty tương tự.

Nguồn: https://www.nbcnews.com/tech/tech-news/google-ai-im-feeling-depressed-cheese-not-sticking-to-pizza-error-rcna153301

Vũ Thanh Mai

Change the world by being yourself

Similar Posts

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *