Mã nguồn AI nên mở hay đóng?

Mã nguồn AI nên mở hay đóng?

Liên minh Trí tuệ nhân tạo (AI) với hơn 50 thành viên vừa được thành lập, với mục tiêu thúc đẩy phát triển AI mã nguồn mở một cách an toàn và có trách nhiệm.

1 Ma Nguon Ai Nen Mo Hay Dong

Tập đoàn IBM và Meta dẫn đầu liên minh thúc đẩy phát triển AI mã nguồn mở - Ảnh: YAHOO FINACE

Hôm 5-12, Tập đoàn IBM và Meta ra mắt Liên minh Trí tuệ nhân tạo (AI) với sự tham gia của các "ông lớn" Dell, Sony, AMD, Intel, Cơ quan Hàng không vũ trụ Mỹ (NASA) cùng một số trường đại học và start-up AI khác.

Mục tiêu của liên minh hơn 50 thành viên này là thúc đẩy phát triển AI mã nguồn mở một cách an toàn và có trách nhiệm.

Chúng tôi tin rằng sẽ tốt hơn khi AI được phát triển mở, giúp nhiều người có thể tiếp cận các lợi ích, xây dựng các sản phẩm sáng tạo và làm việc một cách an toàn. Chủ tịch về các vấn đề toàn cầu của Meta, ông NICK CLEGG, nói về việc thành lập Liên minh AI

Tăng khả năng tiếp cận AI

Thuật ngữ "mã nguồn mở" (open source) xuất phát từ thực tiễn xây dựng phần mềm kéo dài hàng thập niên, trong đó mã nguồn là miễn phí hoặc có thể truy cập rộng rãi, bất kỳ ai cũng có thể nghiên cứu, sửa đổi và phát triển ứng dụng trên mã nguồn đó.

Ông Darío Gil, phó chủ tịch cấp cao kiêm giám đốc nghiên cứu của IBM, khẳng định liên minh tán thành cách tiếp cận AI không độc quyền và không đóng, từ đó ngăn chặn việc biến AI trở thành "một thứ bị nhốt trong thùng và không ai biết đó là gì".

Theo IBM, với việc tập hợp các nhà phát triển, nhà khoa học, tổ chức học thuật, các công ty và nhà đổi mới hàng đầu khác, liên minh sẽ có nguồn lực và kiến thức để giải quyết mối lo ngại về sự an toàn của AI, cũng như cung cấp nền tảng chia sẻ và phát triển các giải pháp phù hợp với nhu cầu của từng nhóm người dùng khác nhau.

Tuyên bố thành lập Liên minh AI được đưa ra trong bối cảnh nhiều chính phủ đang cân nhắc các quy định chặt chẽ hơn về công nghệ do lo ngại rủi ro về an toàn và bảo mật liên quan đến AI.

Đạo luật AI của Liên minh châu Âu (EU) được xem là một trong những bộ quy tắc tiên phong. Nhưng những nỗ lực nhiều năm của EU nhằm xây dựng "rào chắn" với AI đã mau chóng bị lạc hậu với sự xuất hiện của AI tạo sinh như ChatGPT của OpenAI.

Dự thảo Đạo luật AI đã được Nghị viện châu Âu thông qua vào tháng 6, nhưng đến tận đêm 6-12 các nhà hoạch định chính sách của EU vẫn bế tắc trong việc đàm phán để đạt được thỏa thuận cuối về đạo luật này.

Ba nước Pháp, Đức, Ý đang đấu tranh để loại bỏ một phần dự luật áp đặt những quy định ràng buộc và quy tắc minh bạch với các mô hình ngôn ngữ lớn mà ChatGPT và Bard (của Google) đang sử dụng. 

Hệ thống này giúp các chatbot AI vừa nêu có thể đưa ra câu trả lời dựa trên dữ liệu chữ và hình ảnh hiện có từ Internet. Ba nước đó cho rằng những quy tắc đó có thể cản trở sự đổi mới và khiến châu Âu tụt hậu so với Mỹ trong cuộc đua phát triển AI.

Đóng hay mở?

Việc ủng hộ mã nguồn mở của Liên minh AI cũng đặt họ vào thế bất đồng với các đối thủ như Google, Microsoft và OpenAI. Mặc dù có tên là OpenAI nhưng công ty tạo ra công cụ ChatGPT này lại xây dựng các hệ thống AI mã nguồn đóng và chỉ nhà phát triển mới có thể truy cập, sửa đổi.

Hồi tháng 10, giám đốc AI của Meta, ông Yan LeCun, đã chỉ trích OpenAI, Google và công ty khởi nghiệp Anthropic, cho rằng họ đã vận động hành lang để tạo ra các nguyên tắc có lợi cho những mô hình AI hiệu suất cao của mình.

"Trong tương lai, khi các hệ thống AI sẵn sàng trở thành kho lưu trữ tất cả kiến thức và văn hóa nhân loại, chúng ta cần các nền tảng phải là mã nguồn mở, có sẵn và miễn phí để mọi người có thể đóng góp cho chúng", ông nói.

Trong khi đó, ông Chris Padilla - phó chủ tịch phụ trách các vấn đề chính phủ và pháp lý của IBM - cho rằng Microsoft, nhà ủng hộ lớn của OpenAI, đã luôn phản đối các chương trình mã nguồn mở có khả năng cạnh tranh với hệ điều hành Windows và phần mềm Office trong nhiều thập niên. "Họ đang thực hiện điều tương tự ở đây (với AI)", ông Chris Padilla nói.

Chính OpenAI cũng bày tỏ lo ngại về việc mã nguồn AI được tiếp cận rộng rãi. "Nói một cách rõ ràng, có những động cơ thương mại và ngắn hạn chống lại (AI) mã nguồn mở. Tuy nhiên, cũng có mối lo ngại lâu dài hơn liên quan đến tiềm năng của một hệ thống AI có năng lực mạnh mẽ đến khó tin và sẽ là quá nguy hiểm khi nó được tiếp cận công khai" - ông Ilya Sutskever, nhà đồng sáng lập OpenAI, hồi tháng 4 nêu quan điểm.

Và để củng cố cho lập luận của mình, ông dẫn chứng một hệ thống AI đã học cách thành lập phòng thí nghiệm sinh học của chính nó.

Ông David Evan Harris thuộc ĐH California-Berkeley cũng cho rằng mã nguồn mở "thực sự tuyệt vời" ở nhiều khía cạnh công nghệ nhưng với AI thì khác.

Liên tưởng đến bộ phim Oppenheimer kể về cuộc đời của nhà vật lý lý thuyết Robert Oppenheimer - được mệnh danh là "cha đẻ" của bom nguyên tử, ông David Evan Harris nói: "Bất kỳ ai đã xem bộ phim đều biết điều này. Khi những khám phá khoa học lớn được thực hiện, có nhiều lý do để suy nghĩ về việc có nên chia sẻ rộng rãi và chi tiết các thông tin không, vì nó có thể lọt vào tay kẻ xấu".

Nguồn: Báo Tuổi trẻ Online


© 2024 | Tạp chí NƯỚC ĐỨC



 

Bài liên quan