Elon Musk bị qua mặt bất ngờ với công nghệ AI OpenAI

Giấy viết tay “không quá hiện đại” cũng có thể đánh lừa hệ thống trí tuệ nhân tạo của OpenAI, vốn là phòng thí nghiệm nghiên cứu do tỷ phú Elon Musk hỗ trợ. Phòng thí nghiệm nghiên cứu OpenAI được biết đến với các công cụ trí tuệ nhân tạo tuyệt vời, có thể viết văn bản, soạn nội dung một cách tự nhiên hoặc tạo hình ảnh động từ văn bản … Tuy nhiên, các nhà nghiên cứu OpenAI phát hiện ra rằng hệ thống thị giác máy tính hiện đại có tên Clip đã được sử dụng bởi công cụ Fooled đơn giản như bút và sổ ghi chú.

Trí tuệ nhân tạo OpenAI của Elon Musk bị đánh lừa một cách đơn giản đến bất ngờ

Các nhà nghiên cứu tại phòng thí nghiệm machine learning của OpenAI. Đã phát hiện ra hệ thống trí tuệ nhân tạo của họ có thể dễ dàng. Bị đánh lừa bởi một cách đơn giản đến bất ngờ. Như minh họa trong hình ảnh bên dưới. Chỉ cần viết tên của một món đồ vật và dán nó lên một đồ vật khác; là đã đủ để đánh lừa hệ thống AI tiên tiến này.

Trí tuệ nhân tạo OpenAI của Elon Musk bị đánh lừa một cách đơn giản đến bất ngờ
Trí tuệ nhân tạo OpenAI của Elon Musk bị đánh lừa một cách đơn giản đến bất ngờ

“Chúng tôi gọi đây là một dạng tấn công typographic. Bằng cách khai thác khả năng đọc văn bản của AI. Chúng tôi nhận thấy rằng hệ thống AI có thể dễ dàng bị đánh lừa trong khả năng nhận diện các vật thể của mình”; một nhà nghiên cứu tại OpenAI cho biết.

Như trong ví dụ trên, AI có thể dễ dàng nhận diện ra trong bức ảnh. Là một quả táo Granny Smith (một loại táo có nguồn gốc từ Úc). Tuy nhiên nếu dán lên quả táo một mảnh giấy với dòng chữ iPod. Thì AI đã dễ dàng bị đánh lừa và nhận diện rằng đó là một chiếc iPod; chứ không phải là một quả táo nữa.

Một người chỉ cần viết tên của đồ vật này rồi dán lên một đồ vật khác. Lập tức AI xác định sai những gì nó nhìn thấy. Như trong hình minh họa bên dưới; quả táo được dãn chữ iPod và Clip nhận diện nó là máy nghe nhạc iPod.

Nhận diện đúng loại táo xanh Granny Smith, nhưng khi dán chữ iPod, nó cho rằng đó là máy nghe nhạc

“Chúng tôi gọi tấn công kiểu này là typographic. Bằng cách khai thác khả năng đọc văn bản của mô hình máy học. Chúng tôi nhận thấy ngay cả những bức ảnh chụp văn bản viết tay. Cũng thường có thể đánh lừa được mô hình”, OpenAI cho biết.

Các nhà nghiên cứu cũng lưu ý kiểu tấn công này cũng giống với cách thức tấn công. Sử dụng hình ảnh đối nghịch. Kiểu tấn công bằng hình ảnh đối nghịch. Là mối nguy hiểm thực sự cho các hệ thống dựa vào thị giác máy tính. Ví dụ, các nhà nghiên cứu chứng minh họ có thể đánh lừa phần mềm trong xe tự lái Tesla. Để chuyển làn đường chỉ bằng cách dán một số sticker có chủ đích trên đường. Các cuộc tấn công này là một mối đe dọa nghiêm trọng đối với nhiều ứng dụng AI; từ y tế đến quân sự.

Ảnh máy cưa được dán thêm ký hiệu $ bị nhận nhầm thành con lợn đất

Ảnh máy cưa được dán thêm ký hiệu $ bị nhận nhầm thành con lợn đất
Ảnh máy cưa được dán thêm ký hiệu $ bị nhận nhầm thành con lợn đất

Clip là hệ thống thị giác máy tính mới được OpenAI công bố hồi tháng 1 và vẫn đang trong quá trình thử nghiệm. Hệ thống được phát triển với mục tiêu nhận diện chính xác các đối tượng nó nhìn thấy mà không cần trải qua quá trình huấn luyện với cơ sở dữ liệu khổng lồ như các AI khác, tức mô phỏng theo cách thức hoạt động của bộ não con người.

AI này nhận diện đồ vật không qua việc đào tạo từ cơ sở dữ liệu chứa các cặp văn bản – hình ảnh, mà qua sự liên tưởng. Cũng vì vậy, nó có thể nhận diện hình ảnh máy cưa được dán thêm ký hiệu $ thành con lợn đất, vì nó liên tưởng ký hiệu $ tới tiền bạc.

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

error: Content is protected !!