Sidebar

Thứ Bảy
18.05.2024

“Trí thông minh nhân tạo sẽ biến đổi một số lớn nghề”

 

Ông Cédric Villani, nghị sĩ Đảng Cộng hòa Lên đường (LREM), nhà toán học, người được Giải Toán học Fields năm 2010 sẽ tường trình cho chính quyền bản báo cáo về trí thông minh nhân tạo (IA) vào tháng 2 năm 2018. Cuối tháng 11, ông sẽ gặp ông Mounir Mahjoubi, tổng thư ký Quốc gia về kỹ thuật số để lên chương trình làm việc đầu tiên trong nhóm của ông. 

Paris Match. Sứ mạng trí thông minh nhân tạo (IA) bao gồm những gì?

Cédric Villani. Đây là một đề nghị về đường hướng của IA cho chính quyền trong những năm sắp tới. Chúng tôi làm việc trên hai vấn đề lớn: hiệu suất và công chính. Một mặt làm thế nào để IA có hiệu suất. Mặt khác, làm thế nào để tất cả mọi người đều được hưởng lợi – chứ không phải chỉ với những người đã được ưu tiên – và góp phần củng cố sợi dây lien kết xã hội. 

Làm thế nào để định nghĩa IA?

Đây là cả một tiến trình thuộc lãnh vực kỹ thuật toán, tự động, hoàn chỉnh các công việc đã được hoàn thiện mà trước đây người ta nghĩ chỉ dành cho con người, có khả năng đọc chữ viết tay, dò tìm một vết trên da để biết đây là ung thư da hay không, hay lái xe tự động. Định nghĩa của nó rất rộng và phạm vi áp dụng của nó rất mênh mông. Chúng tôi đã xem lại danh sách tất cả các bộ và đã tự hỏi xem bộ nào sẽ bị tác động của IA. Không có một bộ nào không bị tác động. Ngay cả bộ văn hóa và bộ thể thao cũng bao gồm. Và toàn xã hội phải thích ứng theo các tiến hóa này. Điều này đã trở thành một thách thức chính cho hiệu năng kinh tế, tầm ảnh hưởng, chủ quyền, an ninh ở thời điểm mà tất cả các nhân vật lớn đưa ra các dự án đầu tư lớn của họ như Mỹ, Trung quốc, Canada, Israel… 

Nước Pháp có khả năng cạnh tranh với các công ty khổng lồ của Trung quốc và Mỹ không (Google, Apple, Facebook, Amazon… ) không?

Có, với điều kiện nước Pháp phải có các phương tiện tài chánh và nhân lực. Cuộc đấu tranh cho IA trước hết là cuộc đấu tranh cho trí thông minh của con người. Nước Pháp được xem như một trong các nước giỏi nhất trong việc tìm tòi nghiên cứu trong lãnh vực này. Các kỹ sư Pháp được đào tạo giỏi. Để giữ họ lại hay đúng hơn khuyến khích họ ra đi để họ trở về lại thì chúng ta phải rất sáng tạo. Và khuyến khích các sinh viên trẻ, các chủ hãng mầm non đi vào trong địa hạt này. Bản báo cáo của chúng tôi đề nghị một loạt các khuyến cáo về mặt pháp lý, lề luật, tài chánh, văn hóa. Ngoài các nguồn nhân lực, còn có các thách thức được đặt ra do việc áp dụng các công cụ tính toán chung và do chính sách về dữ liệu: vì hiện tại IA cung cấp dữ liệu, các thông tin đã được phân loại – nếu được tốt hơn thì hiệu suất càng tốt hơn. 

“Nếu công nghệ không được giải thích, nó sẽ không được chấp nhận” 

Đâu là các ưu tiên hàng đầu của chúng ta trong lĩnh vực này? 

Chắc chắn đó là sự giải thích và đào tạo; các lời nói của tất cả các chuyên gia. Đào tạo là một ưu tiên. Chúng ta cần đào tạo nhiều kỹ sư và chuyên gia về lãnh vực này; chứ không phải chỉ đào tạo các khoa học gia máy tính! Sẽ là một sai lầm nếu bỏ qua các kỹ năng nghề nghiệp vì họ phải thích ứng với các phương pháp của IA và tương tác với nó. Nhưng IA cũng phải được giải thích ở tất cả mọi cấp bậc. Các kết quả và các dự đoán của máy phải được giải thích cho các chuyên gia – ví dụ, một chẩn đoán sẽ không được chấp nhận nếu nó không được giải thích cho bác sĩ -, cho các nhà quản trị nhưng cũng cho tất cả các công dân, vì nếu kỹ thuật không được giải thích, nó sẽ không được chấp nhận. Mặt khác, bản báo cáo này còn nhắm tiếp cận đến với tất cả mọi người. Phải thông tin vì sẽ có các cuộc tranh luận lớn về việc dùng các dữ liệu cá nhân, về việc sửa đổi luật đạo đức sinh học… Đó là những chủ đề kỹ thuật, nhưng nó bao gồm tất cả chúng ta. Các bệnh viện cũng có các dữ liệu quan trọng. Chúng tôi không muốn nó được sử dụng để nuôi dưỡng một hệ thống giám sát, và cũng không muốn củng cố sự gần như độc quyền của Mỹ, họ đã hiện diện trong lãnh vực kinh tế của IA. Ngược lại, chúng tôi mong giúp đỡ những người phát triển các khởi động (start-up) trong lãnh vực y khoa, cải thiện các sản phẩm của họ và đóng góp vào lợi ích chung.

Làm thế nào để làm?

Bằng cách thiết lập một cách đúng đắn trong lãnh vực luật pháp, hợp pháp và văn hóa. Mỗi cộng đồng phải tự tổ chức để quyết định cách làm như thế nào. Điều này đòi hỏi một bản dịch tốt các luật của “Quy định về Bảo vệ Dữ liệu Tổng quát” (GDPR), quy định mới của châu Âu về dữ liệu cá nhân là một bước tiến lớn về luật pháp quốc tế. Châu Âu dự định sẽ là lục địa bảo vệ lợi ích của công dân và chính ở mức độ châu Âu mà chúng ta phải hành động. Nhưng châu Âu không thể đi tới mà không có sự tham dự của nước Pháp.

Nghị sĩ Cédric Villani ở Nhà Hóa học ngày 14 tháng 11. © Ilan Deutsch  

Theo một báo cáo đã đệ trình vào tháng 3, cựu Tổng thống Francois Hollande thông báo sẽ cung cấp 1,5 tỷ euro cho IA trong 10 năm tới. Có đủ không?

Rất khó để đưa ra số tiền chính xác, bởi vì chủ đề là “hệ sinh thái” và nó sẽ thâm nhập vào mọi lãnh vực. Vì thế, thách thức lớn nhất là ở lãnh vực đào tạo nghề nghiệp ở IA. Công việc này có được tính vào ngân sách đào tạo hoặc ngân sách IA không? Nếu có, thì 1,5 tỷ euro trong 10 năm, đối với một nước như nước Pháp thì thật sự rất ít. Để có một so sánh quốc tế, một quốc gia “nhỏ” như Phần Lan (GDP của họ khoảng 10% của nước Pháp…) họ dự trù đầu tư tối thiểu 1 tỷ euro cũng trong 10 năm.

Một số người cho rằng sẽ có 5 triệu việc làm bị hủy trên thế giới trong vòng bốn năm tới do máy móc nhiều ít thông minh…

Vấn đề biến đổi công việc là vấn đề gây tranh cãi nhiều nhất. Chúng tôi nghe nhiều phía, có người giải thích nó sẽ trở thành một Armageddon (cuộc chiến giữa thần dữ và thần lành) cho công ăn việc làm, có người nói nó sẽ làm nổ bùng công ăn việc làm ra. Sự thật là không ai có thể dự đoán đáng tin cậy trong lãnh vực này được. Tôi không nghĩ sẽ có một số nghề sẽ biến mất, nhưng IA sẽ mang lại các nghề mới và biến đổi rất nhiều. 

Những nghề nào?

Thật sự rất nhiều. Chẳng hạn trong lãnh vực cung cấp thiệt bị ôtô, bác sĩ, luật sư, các ngành này sẽ không còn như trước. Các câu hỏi mới sẽ nảy sinh – chẳng hạn về quyền sở hữu trí tuệ hay trách nhiệm – vấn đề rất khó để làm sáng tỏ. Ai sẽ chịu trách nhiệm một khi chương trình IA bắt đầu hành động, mà những hành động này chưa được lập trình, nhưng máy đã làm điều đó một mình? Hoặc trên cơ sở các ví dụ độc hại như việc chương trình Chatbot Tay đã thao túng để trở thành phân biệt chủng tộc? Thậm chí còn có một số người đề nghị thành lập một khái niệm về nhân cách luân lý và đạo đức (PMJ) cho các rô-bô và các lập trình. 

Ông có ủng hộ không?

Không, nhưng cuộc tranh luận đáng được đưa ra. Chúng tôi đã hỏi 200 người về IA và chúng tôi còn gặp thêm khoảng 50 người nữa. Chúng tôi gặp các nhân vật ở trong nhiều lãnh vực rất khác nhau. Bàn tròn nói về quyền là một trong các bàn tròn sinh động nhất. Các nghiên cứu về quyền sẽ được đơn giản hóa không? Liệu chúng ta sẽ chuyển một phần của nhu cầu ghi nhớ vào máy móc, mà phần này sẽ có thể được sử dụng trong công lý không? Trên thực tế, nó đã là trường hợp cho các vụ án hình sự ở Mỹ. Các luật sư đang chiến đấu để dùng thuật toán này hay thuật toán kia trong các trường hợp tạm tha có điều kiện và tái phạm. Ngoài ra còn có các công cụ hỗ trợ vào sự quyết định của các thẩm phán đưa ra phán quyết dựa trên lối xét xử đã có. Và đối với mỗi chủ đề, có những trường hợp sử dụng mới và các vấn đề rất thú vị. 

Ông có thấy có một số ứng dụng của IA đáng chỉ trích không?

Có rất nhiều và ở Mỹ, họ đã đi trước trong việc chấp nhận công nghệ và thậm chí có rất nhiều trường hợp nghi vấn. Trong quyển sách “Vũ khí của toán học hủy hoại” (Weapons of math destruction), nữ toán học gia Cathy O’Neil liệt kê rất nhiều trường hợp. Như, làm thế nào một Quốc gia như nước Mỹ lại quyết định dùng IA để đánh giá các giáo viên của mình. Chương trình này thật tai hại, một vài giáo sư giỏi nhất đi ra khỏi hệ thống, nó thật hủy hoại. Các ví dụ khác được nêu lên như các lệch lạc của các quảng cáo có chủ đích hoặc trong đường lối dự báo, hoặc gần đây là trong trường hợp gây tranh cãi trong vụ bầu cử tổng thống Mỹ. Bị sử dụng sai, IA có thể dùng để thao túng hoặc làm tăng tình trạng bấp bênh của những người yếu đuối nhất. Phải cẩn thận để IA không dẫn đến sự mất đoàn kết của xã hội. Các bảo hiểm của chúng ta làm việc dựa trên nguyên tắc của một tổng hợp các rủi ro và do đó trên thực tế có một số lo ngại nào đó. Nếu với việc phân tích các dữ liệu y khoa, chúng ta có thể tiên đoán khi nào bệnh, khi nào chết thì hệ thống bảo hiểm sẽ sập. Chúng tôi không mong muốn điều đó.

Về “Mặt bằng thâu nhận hậu-tú tài” (APB): “Chúng tôi chấp nhận các sai lầm của con người chứ không chấp nhận sai lầm của toán học”

Còn về hệ thống APB mà các kết quả bị chỉ trích nặng nề?

Đó là một trường hợp cần nghiên cứu. Trái ngược với những gì đã có thể được viết, chung chung phần mềm APB hoạt động tốt, nó được mã hóa nghiêm ngặt với một quan tâm về mặt đạo đức và công lý. Nhưng nó phải đối diện trước một hệ thống luật pháp đã lỗi thời, mà kiểu bốc thăm là lối thoát duy nhất khả thể. Ngoài ra, các thể chế sử dụng nó đã lợi dụng sự mập mờ của luật, đưa vào các tham số có lợi cho họ. Sức mạnh quần chúng bị ảnh hưởng bởi các tổ chức muốn truy cập vào bảng sắp hạng các ứng viên, điều mà ban quản trị không nên bao giờ được phép làm. Các nhà thiết kế của toán thuật đã không giải thích được – một thuật toán phức tạp!- và các người sử dụng không nắm bắt được cuối cùng đã phải bỏ qua nó. Rốt cùng, trên khía cạnh này, chúng tôi chấp nhận các sai lầm của con người chứ không chấp nhận sai lầm của toán học! Đây là bài học cho tương lai khi đi vào lãnh vực công cộng của các toán thuật phức tạp hơn nhiều so với hệ thống APB. 

Điều gì làm ông ngạc nhiên nhất trong nhiệm vụ này?

Đối với bản báo cáo này, chúng tôi đi sâu vào nhiều lãnh vực và mỗi lãnh vực có vấn đề riêng của nó với IA, thật là thú vị. Do đó tôi học được, chẳng hạn trong ngành ô-tô, một trong các vấn đề chính của các nhà xây dựng là việc chèn vào, chẳng hạn chèn vào đường cao tốc. Bởi vì ở đây có sự ‘thương lượng’ – lý thuyết của các khả thể: “Bạn có nhường chỗ cho tôi không, vv.”, rất khó để lên khuôn hóa. Nếu chỉ có các xe tự động thì sẽ điều chỉnh dễ dàng, nhưng ở đây có sự sống chung giữa tự động và con người, vấn đề trở thành tế nhị…

Giuse Nguyễn Tùng Lâm dịch

623    24-11-2017