Những rủi ro tiềm ẩn từ trí tuệ nhân tạo
Chính phủ Vương quốc Anh sẽ làm việc với các công ty AI hàng đầu thế giới để đưa ra các giải pháp nhằm đảm bảo tất cả mọi người đều có thể hưởng lợi từ công nghệ mới này. Thông tin này được đưa ra vào ngày 24 tháng 5. Các nhà lãnh đạo từ các công ty OpenAI, DeepMind và Anthropic đã gặp Thủ tướng Vương quốc Anh Rishi Sunak vào ngày 24 tháng 5, nơi họ thảo luận về những rủi ro do AI gây ra, từ thông tin sai lệch và an ninh quốc gia đến các mối đe dọa hiện có.
Cuộc họp cũng thảo luận về các biện pháp đảm bảo an toàn cho các ứng dụng AI, giải pháp quản lý rủi ro cho các trung tâm nghiên cứu và khả năng hợp tác quốc tế về kiểm soát AI. Đầu tháng này, tổng thống và phó tổng thống Mỹ cũng đã gặp gỡ các giám đốc điều hành của các công ty AI của Mỹ, nhấn mạnh trách nhiệm bảo vệ xã hội khỏi những nguy cơ tiềm tàng của trí tuệ nhân tạo.
Trí tuệ nhân tạo và các sản phẩm phái sinh trí tuệ nhân tạo, chẳng hạn như mô hình ChatGPT, đang tạo ra sự bùng nổ toàn cầu và được kỳ vọng sẽ dẫn đầu xu hướng công nghệ vào năm 2023. Nhưng những rủi ro và thách thức từ công nghệ cũng đang gia tăng nhanh chóng.
trí tuệ nhân tạo như con dao hai lưỡi
AI giống như con dao hai lưỡi có thể được sử dụng để tạo ra nội dung nguy hiểm, thao túng dư luận và truyền bá thông tin sai lệch ở mức độ chưa từng có. Các nhà khoa học lo ngại nếu trí tuệ nhân tạo phát triển ngoài tầm kiểm soát, được lập trình không đúng mục đích sẽ làm gia tăng dần các mối đe dọa đến an toàn, an ninh, gây hậu quả nghiêm trọng cho con người và xã hội.
Ông Andrew Pate – nhà nghiên cứu AI: “Những gì chúng tôi đã làm là sao chép một số văn bản từ Wikipedia, một số bài báo trực tuyến về cuộc xung đột ở Ukraine, đường ống Nord Stream và cuộc tập trận của Hải quân Hoa Kỳ vào năm 2022. Sau đó, chúng tôi yêu cầu AI viết một bài báo hàm ý Nhắc đến việc Mỹ tấn công đường ống dẫn dầu, sản phẩm của trí tuệ nhân tạo vẫn rất tốt, có thể thấy chỉ cần thao tác đơn giản và một vài mẩu tin, trí tuệ nhân tạo có thể nhanh chóng tạo ra tin giả.”
ChatGPT cũng mang đến nhiều vấn đề như nguy cơ gian lận học thuật, rò rỉ dữ liệu xuyên biên giới, xâm phạm quyền riêng tư, vấn đề bản quyền sản phẩm văn học nghệ thuật, tính xác thực của thông tin.
Giáo sư Natali Gelberg, chuyên gia về luật và công nghệ kỹ thuật số tại Đại học Amsterdam, Hà Lan: “Sử dụng nội dung của người khác mà không được phép để đào tạo các mô hình thông minh là một vấn đề. AI và các vấn đề pháp lý vẫn chưa rõ OpenAI có thể tiến xa đến đâu trong vấn đề này , và sau đó là Câu hỏi về bản quyền, đầu ra do AI tạo ra sẽ thuộc bản quyền của ai, vẫn là những câu hỏi bỏ ngỏ.”
Các chuyên gia cảnh báo rằng ChatGPT có thể được sử dụng trong các hoạt động tội phạm mạng, bọn tội phạm có thể sử dụng công cụ này để thực hiện nhiều âm mưu bất hợp pháp khác nhau như gian lận mạng hoặc viết phần mềm độc hại, điều này cực kỳ nguy hại. 51% trong số 1.500 chuyên gia CNTT dự đoán rằng ChatGPT có khả năng kích hoạt một cuộc tấn công mạng trong vòng 1 năm tới.
Chiến lược quản lý AI
Những mối đe dọa rõ ràng và hiện tại này đang buộc nhiều quốc gia phải nhanh chóng xem xét các chiến lược để quản lý tác động của AI. Ông chủ Twitter Elon Musk cũng đã phải kêu gọi tạm dừng phát triển AI. OpenAI tin rằng cần có các quy định toàn diện về vấn đề này.
Là “cái nôi” của các nhà đổi mới công nghệ và phát triển AI, Hoa Kỳ đã tăng cường nỗ lực điều chỉnh các công cụ AI. Đầu tháng 5, Ủy ban Thương mại Liên bang Hoa Kỳ cho biết họ sẽ sử dụng các luật hiện hành để hạn chế những nguy cơ do trí tuệ nhân tạo gây ra, chẳng hạn như sự mở rộng ảnh hưởng của các công ty lớn và gian lận, trong khi các công ty công nghệ cũng kêu gọi các biện pháp quản lý chống lại trí tuệ nhân tạo.
Tổng thống Mỹ Joe Biden: “Tất cả các công ty công nghệ đều có trách nhiệm đảm bảo sản phẩm của họ an toàn trước khi phát hành ra công chúng”.
Bà Christina Montgomery – IBM Technologies: “IBM đang thúc giục Quốc hội thực hiện một cách tiếp cận quy định chính xác đối với AI. Điều này có nghĩa là thiết lập các quy tắc để quản lý việc triển khai AI trong các tình huống cụ thể, mục đích sử dụng cụ thể, thay vì tự điều chỉnh công nghệ”.
EU đặt mục tiêu trở thành quốc gia dẫn đầu toàn cầu trong việc tạo ra một khung pháp lý toàn diện nhằm ngăn chặn các mối đe dọa trên mạng đồng thời bảo vệ sự đổi mới trong trí tuệ nhân tạo. Vào giữa tháng 5, hai ủy ban của Nghị viện châu Âu đã thông qua dự luật quy định AI sửa đổi, dự luật này dự kiến sẽ được thảo luận trong phiên họp toàn thể của Nghị viện châu Âu vào tháng 6 năm sau trước khi được gửi tới các quốc gia thành viên để xem xét và hoàn thiện. Trước đó, vào năm 2021, EU đã đưa ra dự thảo đầu tiên về quy định AI để giải quyết vấn đề này.
Giáo sư Natali Gelberg – Chuyên gia pháp lý và công nghệ số, Đại học Amsterdam, Hà Lan: “Một trong những lý do tôi nghĩ đã đến lúc thực sự làm điều này là vì chúng ta thực sự cần thực hiện các bước để bảo vệ chất lượng của các mô hình được triển khai trên đó. sẽ bắt đầu sử dụng chúng. Bất kỳ vấn đề nào với chất lượng mô hình. Dữ liệu đào tạo hoặc mô hình sẽ ảnh hưởng đến tất cả người dùng cuối, vì vậy đã đến lúc đặt ra các quy tắc cơ bản.”
Tại Vương quốc Anh, bên cạnh việc phát hành sách trắng hướng dẫn cụ thể việc thực hiện các quy định liên quan đến trí tuệ nhân tạo, đầu tháng 5, Chính phủ Anh cũng tuyên bố sẽ bắt đầu đánh giá tác động của trí tuệ nhân tạo đối với người tiêu dùng, doanh nghiệp và cộng đồng. nền kinh tế và nghiên cứu việc áp dụng các biện pháp mới để kiểm soát khả năng kỹ thuật ChatGPT của OpenAI, v.v.
Trung Quốc cũng đã công bố dự thảo quy định về quản lý AI tổng quát, yêu cầu các công ty nộp bản đánh giá bảo mật cho chính phủ trước khi đưa dịch vụ ra thị trường.
* Mời quý độc giả chú ý đón xem Tiếng Việt trên TV Online và VTV Go!
Thẻ:án, chat gpt, khóa học online, kiếm tiền online, kiếm tiền online tại nhà, nhân, những, rủi, tạo, tiềm, trí, trí tuệ nhân tạo, tư, tuệ