Chưa phải thời điểm để lo lắng vấn đề kiểm soát, quản lý sử dụng AI
Cuộc sống số - Ngày đăng : 10:23, 20/02/2023
Cần khuôn khổ pháp lý nếu phát hiện mặt trái của ChatGPT
Dù chỉ mới ra mắt một thời gian ngắn, đã có vô vàn kịch bản sử dụng được người dùng tạo ra cho ChatGPT. Công cụ này cho thấy khả năng hỗ trợ đắc lực người dùng trong nhiều vai trò khác nhau. Tuy vậy, sự phát triển và phổ biến của ChatGPT cũng đang khiến nhiều người lo ngại về những ảnh hưởng tiêu cực từ việc sử dụng ChatGPT hay các ứng dụng trí tuệ nhân tạo khác. Chẳng hạn như, việc dùng ChatGPT để vượt qua các kỳ thi hay lợi dụng ChatGPT để sản xuất fake news, lừa đảo...
Chia sẻ với VietNamNet về việc liệu ChatGPT có cần chịu sự ràng buộc quản lý từ phía cơ quan nhà nước hay không, ông Đặng Thái Hòa, Phó Tổng Giám đốc Rikkeisoft kiêm Giám đốc Rikkei AI cho biết, hiện chưa có ghi nhận nào về việc ChatGPT gây thiệt hại cho cá nhân, tổ chức.
Nếu điều này xảy ra, các nhà lập pháp cần nghiên cứu để tạo ra một khuôn khổ pháp lý. Hiện Liên minh châu Âu đang nhận ra nguy cơ về thông tin không chính xác, bảo mật thông tin cá nhân và một số vấn đề liên quan đến đạo đức như phân biệt chủng tộc, giới tính và xem xét cho ra đời một dự luật về AI.
Theo ông Đặng Thái Hòa, nhiều người nghĩ rằng ChatGPT như bạn bè nên tâm sự thông tin cá nhân, công việc của mình. Những thông tin này được thu thập và có thể sẽ bị lợi dụng.
ChatGPT là một sản phẩm công nghệ mới nên tất cả các quốc gia đều chưa kịp đưa ra những chính sách. Thế nhưng ngoài ChatGPT còn có nhiều các công trình nghiên cứu về AI khác nữa sắp sửa ra đời. Do vậy, sẽ cần phải có những văn bản pháp luật để quy định.
Ngoài ra, chính đơn vị phát triển ChatGPT cũng cần có những khóa huấn luyện bài bản, những người đào tạo AI không được mang các tư tưởng sai lệch như phân biệt giới tính, chủng tộc để tránh việc chatbot bị lợi dụng. Trong trường hợp xảy ra rủi ro, đơn vị phát triển sẽ phải chịu trách nhiệm.
“Với người dùng, vì ChatGPT không hề đưa ra trích dẫn từ nguồn nào, vậy nên họ phải kiểm tra lại độ chính xác của thông tin. Đồng thời, người dùng cần hạn chế chia sẻ thông tin cá nhân của mình để tránh việc lợi dụng để đạt mục đích lừa đảo, mua bán dữ liệu”, ông Đặng Thái Hòa khuyến nghị.
Về vấn đề này, ông Vũ Thanh Thắng, Giám đốc cấp cao về AI của Công ty SCS cho rằng, trước những sản phẩm có tính ảnh hưởng cao tới cộng đồng như ChatGPT, cơ quan quản lý cần thiết bắt tay nghiên cứu sự ảnh hưởng tích cực và tiêu cực của nó tới người dùng. Từ đó, có những biện pháp để phát huy sự tích cực và giảm thiểu các tiêu cực.
ChatGPT cũng chỉ là một trong hàng ngàn công nghệ đang được cả thế giới phát triển, do đó việc dùng từ kiểm soát sẽ không thật chính xác. Chúng ta nên tập trung đánh giá sự ảnh hưởng của nó để có những biện pháp thích ứng phù hợp, sao cho có lợi nhất.
Nhận định vấn đề lớn nhất của ChatGPT hiện nay là Open AI chưa kiểm soát hết nội dung cũng như chất lượng trả lời của ChatGPT, họ chỉ đang tập trung vào xử lý các thông tin bạo lực, sex hoặc ngôn từ gây phản cảm.
“Theo tôi ChatGPT không dành cho trẻ em dùng giai đoạn này, nếu có dùng phải có sự giám sát trực tiếp của bố mẹ. Người dùng ChatGPT cần có sức đề kháng trước những thông tin sai của nó và nên chỉ để tham khảo tổng hợp kiến thức”, ông Vũ Thanh Thắng cho hay.
Hãy nhìn nhận các công nghệ mới theo hướng tích cực
Bàn về vấn đề đạo đức của AI nói chung và ChatGPT nói riêng, Phó Tổng giám đốc Microsoft Việt Nam Phùng Việt Thắng cho hay, việc sử dụng công nghệ một cách có trách nhiệm, có kiểm soát không phải là mới.
Tất cả các hãng công nghệ hàng đầu trên thế giới đều phải quan tâm đến điều này, nếu không, công nghệ do họ phát triển sẽ không thể phổ biến và có nhiều người sử dụng một cách an toàn. ChatGPT nói riêng và trí tuệ nhân tạo nói chung đều sẽ phải tuân thủ theo xu hướng đó.
Theo ông Phùng Việt Thắng, các công ty công nghệ lớn muốn đảm bảo sự thành công của mình với một số lượng người dùng hàng trăm triệu trên phạm vi toàn thế giới, họ chắc chắn sẽ phải có những cam kết.
Những cam kết này sẽ liên quan đến nhiều góc đó, ví dụ như an toàn dữ liệu, bảo vệ dữ liệu cá nhân hay không cung cấp những thông tin có thể làm tổn hại đến một cá nhân nào đó. Đây là những cam kết cơ bản của một hãng công nghệ khi tạo ra những công cụ để đưa ra thị trường.
Nên coi ChatGPT như một trợ lý ảo. Khi coi một công cụ là trợ lý, chúng ta sẽ không thấy những rủi ro từ đó nữa. Chúng ta có thể tự nâng cấp bản thân để hơn được người trợ lý của mình, dạy cho trợ lý ảo hướng theo những thứ mà mình muốn, nhờ thế, năng lực hỗ trợ người dùng của sản phẩm sẽ tốt hơn nhiều.
“Hãy nhìn những công nghệ mới như AI hay ChatGPT ở tiêu chí tích cực và cùng nhau tìm ra cách tận dụng nó theo cách tốt nhất ở góc độ của mỗi người”, Phó Tổng giám đốc Microsoft Việt Nam nói.
Còn quá sớm để bàn việc ra chính sách kiểm soát ChatGPT
Trao đổi với VietNamNet, ông Vũ Thế Bình, Phó Chủ tịch, Tổng thư ký Hiệp hội Internet Việt Nam (VIA) nhận xét, quản lý thế nào là một bài toán thường xuyên lặp lại khi có những đột phá về công nghệ. Đây là vấn đề của nhiều quốc gia, không riêng gì Việt Nam.
Theo ông, sự nóng lên của cộng đồng mạng về ChatGPT là một tín hiệu tốt để các cơ quan quản lý nhà nước quan tâm, tiếp cận phù hợp nhằm chuẩn bị cho các chính sách quản lý và thúc đẩy phát triển.
“Chúng tôi tin rằng các cơ quan quản lý nhà nước cũng thường xuyên cập nhật tình hình và có những công tác chuẩn bị phù hợp để thích ứng với sự thay đổi, ra đời của những công cụ, dịch vụ công nghệ đột phá, và đến từ bên ngoài Việt Nam”, ông Vũ Thế Bình chia sẻ.
Thực tế, ở góc độ của bộ quản lý lĩnh vực ICT, vấn đề nghiên cứu chính sách về thúc đẩy và quản lý các ứng dụng AI tại Việt Nam đã được Bộ TT&TT đặt ra.
Cụ thể, trong Chiến lược phát triển ứng dụng AI đến năm 2030 (gọi tắt là Chiến lược AI ứng dụng) ban hành trung tuần tháng 12/2022, Bộ TT&TT đã giao Viện Chiến lược TT&TT nghiên cứu đề xuất văn bản quy phạm pháp luật, cơ chế chính sách cho AI nhằm thúc đẩy phát triển, đồng thời giảm thiểu những rủi ro khi ứng dụng và triển khai sản phẩm AI vào thực tiễn.
Đại diện Viện Chiến lược TT&TT cho biết, đơn vị đang nghiên cứu, tìm hiểu về các ứng dụng AI, trong đó có ChatGPT, song hiện chưa có đề xuất chính sách cụ thể.
Với ngành giáo dục, Thứ trưởng Bộ GD&ĐT Hoàng Minh Sơn cho biết, vẫn còn quá sớm để nói về việc nên hạn chế hay khuyến khích ChatGPT trong giáo dục.
Theo Thứ trưởng Hoàng Minh Sơn, đây cũng là lý do Bộ GD&ĐT đã phải tổ chức buổi tọa đàm về ChatGPT ngày 13/2 và thậm chí có thể còn nhiều buổi tọa đàm khác nữa để lắng nghe ý kiến của các chuyên gia với câu chuyện ChatGPT và AI. Trên cơ sở những ý kiến đóng góp đó, các cơ quan quản lý nhà nước mới có thể đưa ra những chính sách phù hợp.
Đồng quan điểm, Giám đốc kỹ thuật Công ty NCS Vũ Ngọc Sơn cho rằng, bất cứ công nghệ mới nào thì cũng cần thời gian để đánh giá sự tác động đến xã hội. Việt Nam hiện đã có những luật liên quan trên môi trường mạng. Đây là những luật giúp bảo vệ những giá trị cơ bản, giữ gìn trật tự an toàn xã hội, điều chỉnh các hành vi gây nguy hiểm. Các luật này về cơ bản đã bao phủ được những vấn đề có thể xảy ra trên môi trường mạng.
Do đó, theo chuyên gia Vũ Ngọc Sơn, nếu AI hay bất cứ công nghệ mới nào có ảnh hưởng đến xã hội thì đâu đó cũng sẽ bị xử phạt theo các quy định đã có mà chưa cần thêm các luật, chính sách mới. Chỉ khi đến một mức độ nào đó, vượt quá cơ sở của các luật đã có thì mới cần điều chỉnh, thậm chí là thêm mới.
“Thời điểm này, chúng ta có thể bình tĩnh quan sát và chờ đợi xem AI sẽ giúp gì và ảnh hưởng gì đến cuộc sống của mọi người, trước khi phải lo lắng về vấn đề kiểm soát, quản lý”, chuyên gia Vũ Ngọc Sơn nêu quan điểm.
Ở góc độ của 1 cơ sở giáo dục đang triển khai cho các sinh viên, học viên ứng dụng ChatGPT hỗ trợ việc học, Giám đốc điều hành đại học trực tuyến FUNiX Lê Minh Đức nhấn mạnh: “Thay vì kiểm soát giới trẻ, hãy giáo dục, hãy tạo điều kiện để giúp họ có điều kiện thuận lợi nhất, sử dụng ChatGPT một cách hiệu quả nhất”.
Chuyên gia công nghệ Tạ Quang Thái cũng cho rằng, chúng ta không nên cấm hay kiểm soát các công cụ AI mà cần thay đổi và thích nghi với sự có mặt của AI trong cuộc sống hàng ngày. Ví dụ, thay các bài kiểm tra kiến thức thì chúng ta kiểm tra việc áp dụng, vận dụng kiến thức thế nào; thay vì tập trung vào kỹ năng viết lách chuyển sang tập trung vào phân tích vấn đề có liên quan đến thực tế cuộc sống...
Cùng với việc tạo cơ hội để mọi người có thể tiếp cận AI, chuyên gia Tạ Quang Thái cũng khuyến nghị nên đào tạo, hướng dẫn nâng cao kiến thức, để người dùng có khả năng tự phòng chống các hình thức lừa đảo sử dụng AI.