“Trí tuệ nhân tạo, một công cụ vừa hấp dẫn vừa đáng sợ”
Đức Thánh Cha Phanxicô tham dự Hội nghị thượng đỉnh G7 ở Borgo Egnazia
*******
Thứ Sáu tuần này, ngày 14 tháng 6 năm 2024, sau khi rời Casa Santa Marta, Đức Thánh Cha Phanxicô khởi hành bằng máy bay trực thăng tại sân bay trực thăng Vatican lúc 10:30 sáng để tham dự Hội nghị Thượng đỉnh G7 ở Borgo Egnazia, Apulia.
Khi đến sân vận động, lúc 12:10 trưa, Đức Thánh Cha đã được Bà Giorgia Meloni, Chủ tịch Hội đồng các Bộ trưởng Cộng hòa Ý tiếp đón.
Sau đó, Đức Thánh Cha Phanxicô đi xe golf đến khu vực được chuẩn bị riêng để thực hiện các cuộc nói chuyện song phương với bà Kristalina Georgieva, Tổng Giám đốc Quỹ Tiền tệ Quốc tế, với ông Volodymyr Zelensky, Tổng thống Cộng hòa Ukraine, và với Tổng thống Cộng hòa Pháp, ông Emmanuel Macron và Thủ tướng Canada, ông Justin Trudeau.
Bà Giorgia Meloni trịnh trọng chào đón Đức Thánh Cha tại sân Borgo Egnazia và vào lúc 2:55 chiều, tại Sala Arena, Đức Thánh Cha khai mạc Phiên họp chung của G7 và có bài diễn từ, sau đó là các bài phát biểu khác.
Sau đó tiếp tục diễn ra các cuộc gặp gỡ song phương: bên lề Phiên họp buổi chiều vừa kết thúc, Đức Thánh Cha gặp ông Narendra Modi, Thủ tướng Ấn Độ, và Tổng thống Cộng hòa Thổ Nhĩ Kỳ, ông Recep Tayyip Erdoğan; và sau nghi thức chụp ảnh chính thức với tất cả những người tham dự, ngài gặp ông William Samoei Ruto, Tổng thống Kenya; và ông Luiz Inácio Lula da Silva, Tổng thống Brazil; và Tổng thống Hợp chủng quốc Hoa Kỳ, ông Joseph Biden.
Kết thúc những cuộc gặp gỡ song phương, lúc 8 giờ 43 tối, Đức Thánh Cha lên máy bay trực thăng tại sân thể thao Borgo Egnazia để trở về Vatican.
Dưới đây là văn bản đầy đủ của bài diễn từ Đức Thánh Cha Phanxicô đã chuẩn bị cho dịp này và bài phát biểu trong Phiên họp chung G7:
____________________________________
Diễn từ của Đức Thánh Cha Phanxicô
Một công cụ vừa hấp dẫn vừa đáng sợ
Kính thưa quý ông quý bà,
Hôm nay, tôi xin trình bày với quý vị là các nhà lãnh đạo Diễn đàn liên chính phủ của G7 về những tác động của trí tuệ nhân tạo đối với tương lai của nhân loại.
“Kinh Thánh chứng thực rằng Thiên Chúa đã ban Thần Khí của Ngài cho con người để họ ‘giỏi giang và lành nghề mà làm mọi công việc’ (Xh 35:31)”. [1] Vì vậy, khoa học công nghệ là sản phẩm nổi bật của tiềm năng sáng tạo của con người. [2]
Thật vậy, trí tuệ nhân tạo xuất hiện chính từ việc sử dụng tiềm năng sáng tạo do Thiên Chúa ban.
Như chúng ta biết, trí tuệ nhân tạo là một công cụ vô cùng mạnh mẽ, được sử dụng trong nhiều loại hoạt động của con người: từ y học đến thế giới công việc; từ văn hóa đến lĩnh vực truyền thông; từ giáo dục đến chính trị. Bây giờ có thể chắc chắn nói rằng việc sử dụng nó sẽ ngày càng ảnh hưởng đến cách sống của chúng ta, các mối quan hệ xã hội và thậm chí cả cách chúng ta nhận thức về bản sắc con người của mình. [3]
Tuy nhiên, câu hỏi về trí tuệ nhân tạo thường được xem là mơ hồ: một mặt, nó tạo ra sự phấn khích về những khả năng nó mang lại, mặt khác nó làm nảy sinh nỗi sợ hãi về những hậu quả mà nó báo trước. Về vấn đề này, có thể nói rằng tất cả chúng ta đều trải qua hai cảm xúc, mặc dù ở những mức độ khác nhau: chúng ta say sưa khi tưởng tượng về những tiến bộ có thể đạt được từ trí tuệ nhân tạo, nhưng đồng thời, chúng ta sợ hãi khi nhận biết những mối nguy hiểm trong việc sử dụng nó. [4]
Xét cho cùng, chúng ta không thể nghi ngờ rằng sự ra đời của trí tuệ nhân tạo đại diện cho một cuộc cách mạng công nghiệp-nhận thức thật sự, sẽ góp phần tạo ra một hệ thống xã hội mới với nét đặc trưng của những biến đổi thời đại phức tạp. Ví dụ, trí tuệ nhân tạo có thể tạo cơ hội cho việc tiếp cận kiến thức mang tính dân chủ, sự tiến bộ vượt bậc trong việc nghiên cứu khoa học và khả năng giao phó những công việc khó khăn và nặng nhọc cho máy móc. Nhưng đồng thời, nó có thể đưa đến những bất công lớn hơn giữa các quốc gia tiến bộ và các quốc gia đang phát triển, hoặc giữa các tầng lớp thống trị xã hội và tầng lớp bị áp bức, làm gia tăng nguy cơ làm cho “văn hóa vứt bỏ” được ưu ái hơn “văn hóa gặp gỡ”.
Tầm quan trọng của những biến đổi phức tạp này rõ ràng có liên quan đến sự phát triển công nghệ nhanh chóng của trí tuệ nhân tạo.
Chính sự tiến bộ công nghệ mạnh mẽ này đã làm cho trí tuệ nhân tạo trở thành một công cụ vừa thú vị vừa đáng sợ, đồng thời đòi hỏi sự phản ánh phù hợp với thách thức mà nó đưa ra.
Về vấn đề này, có lẽ chúng ta cần bắt đầu từ việc nhận biết rằng trí tuệ nhân tạo trên hết chỉ là một công cụ. Và tất nhiên lợi ích hay tác hại nó mang đến sẽ phụ thuộc vào việc sử dụng nó.
Điều này chắc chắn là đúng, vì mọi công cụ do con người tạo ra đều là như vậy kể từ lúc khởi thủy.
Khả năng của chúng ta trong việc tạo ra các công cụ, với số lượng và độ phức tạp chưa từng có giữa các sinh vật sống, nói lên tình trạng con người-công nghệ (techno-human condition): con người luôn duy trì mối quan hệ với môi trường qua trung gian là các công cụ mà họ dần dần tạo ra. Không thể tách rời lịch sử của con người và của nền văn minh ra khỏi lịch sử của những công cụ này. Một số người muốn suy diễn điều này như một dạng thiếu sót, một sự yếu kém bên trong con người, như thể vì sự kém cỏi này mà họ buộc phải tạo ra công nghệ. [5] Một cái nhìn thận trọng và khách quan thực tế cho chúng ta thấy điều ngược lại. Chúng ta trải nghiệm trạng thái “hướng ngoại” đối với bản thể sinh học của mình: chúng ta là những sinh vật có khuynh hướng thiên về những gì nằm bên ngoài chúng ta, thực ra chúng ta hoàn toàn rộng mở với bên ngoài. Sự cởi mở của chúng ta với người khác và với Thiên Chúa bắt nguồn từ thực tế này, cũng như tiềm năng sáng tạo của trí tuệ chúng ta đối với văn hóa và cái đẹp. Cuối cùng, năng lực về kỹ thuật của chúng ta cũng bắt nguồn từ thực tế này. Khi đó, công nghệ là dấu hiệu cho thấy chúng ta đang hướng tới tương lai.
Tuy nhiên, việc sử dụng các công cụ của chúng ta không luôn luôn nhắm đến mục đích tốt. Ngay cả khi con người cảm thấy trong mình một tiếng gọi vượt ra ngoài bản thân, và coi kiến thức như một công cụ tốt lành để phục vụ anh chị em và ngôi nhà chung của chúng ta (x. Hiến chế Gaudium et Spes, 16), thì điều này không phải luôn luôn xảy ra. Do tính tự do của mình, nhân loại đã không ít lần phá hỏng mục đích của cuộc sống, trở thành kẻ thù của chính bản thân và của hành tinh. [6] Số phận tương tự có thể xảy đến với các công cụ công nghệ. Chỉ khi mục đích thật sự của chúng là phục vụ con người được đảm bảo, thì những công cụ như vậy mới thể hiện không những sự cao cả và phẩm giá độc nhất của con người, mà còn thực hiện mệnh lệnh họ đã đón nhận là “cày cấy và canh giữ” hành tinh (x. St 2:15) và tất cả cư dân của nó. Nói đến công nghệ là nói đến ý nghĩa của con người và do đó nói đến địa vị riêng biệt của chúng ta là những sinh vật có tự do và trách nhiệm. Điều này có nghĩa là nói về đạo đức.
Trên thực tế, khi tổ tiên chúng ta mài đá lửa để tạo thành những con dao, họ dùng chúng vừa để cắt da động vật làm quần áo vừa để giết hại lẫn nhau. Cũng có thể nói tương tự như vậy đối với các công nghệ tiên tiến hơn, chẳng hạn như năng lượng được tạo ra từ sự hợp nhất của các nguyên tử, xảy ra bên trong Mặt trời, có thể được sử dụng để sản xuất năng lượng sạch, năng lượng tái tạo, hoặc biến hành tinh của chúng ta thành một đống tro tàn.
Tuy nhiên, trí tuệ nhân tạo vẫn là một công cụ phức tạp hơn. Tôi có thể nói rằng chúng ta đang xử lý một công cụ riêng biệt. Trong khi việc sử dụng một công cụ đơn giản (như một con dao) nằm dưới sự kiểm soát của người sử dụng nó, và việc sử dụng nó cho mục đích tốt hoàn toàn phụ thuộc vào người sử dụng, thì ngược lại trí tuệ nhân tạo có thể tự động thích ứng với nhiệm vụ được giao, và có thể đưa ra những lựa chọn độc lập với con người để đạt được mục tiêu đã định, nếu được thiết kế theo cách này. [7]
Cần phải luôn nhớ rằng một cỗ máy có thể tạo ra các lựa chọn thuật toán theo cách nào đó và bằng những phương pháp mới này. Máy đưa ra một lựa chọn về mặt kỹ thuật trong số nhiều khả năng dựa trên những tiêu chí được xác định cụ thể hoặc dựa trên những kết luận thống kê. Tuy nhiên, con người không chỉ lựa chọn mà trong con tim họ còn có khả năng quyết định. Quyết định là điều chúng ta có thể gọi là yếu tố mang tính chiến lược hơn là sự lựa chọn và đòi hỏi sự đánh giá thực tế. Đôi khi, thường trong nhiệm vụ quản lý khó khăn, chúng ta được yêu cầu phải đưa ra những quyết định dẫn đến hậu quả cho nhiều người. Về vấn đề này, suy tư của con người luôn nói lên sự khôn ngoan, phronesis (sự khôn ngoan) của triết học Hy Lạp và ít nhất một phần là sự khôn ngoan của Kinh Thánh. Trước sự kỳ diệu của máy móc dường như có thể lựa chọn một cách độc lập, chúng ta phải hiểu rành mạch rằng việc đưa ra quyết định luôn phải được giao cho con người, ngay cả khi chúng ta phải đối mặt với những chiều kích quan trọng và cấp bách của nó. Chúng ta sẽ đẩy nhân loại vào một tương lai không còn hy vọng nếu chúng ta tước đi khả năng đưa ra quyết định về bản thân và đời sống của con người qua việc bắt họ phải lệ thuộc vào những lựa chọn của máy móc. Chúng ta cần bảo đảm và bảo vệ một không gian để con người có thể kiểm soát những lựa chọn do các chương trình của trí tuệ nhân tạo thực hiện: phẩm giá con người phụ thuộc vào điều đó.
Chính về vấn đề này, cho phép tôi nhấn mạnh rằng: trước thảm kịch xung đột vũ trang, việc cấp bách là phải xem xét lại việc phát triển và sử dụng các thiết bị như những thứ được gọi là “vũ khí tự động gây chết người” và về căn bản là cấm sử dụng chúng. Điều này bắt đầu từ một cam kết hữu hiệu và cụ thể nhằm đưa ra việc kiểm soát thích đáng và lớn hơn bao giờ hết của con người. Không một cỗ máy nào được chọn để tước đi mạng sống con người. Ngoài ra, cần phải nói thêm rằng việc sử dụng tốt, ít nhất là các dạng trí tuệ nhân tạo tiên tiến, sẽ không hoàn toàn nằm dưới sự kiểm soát của người sử dụng hoặc lập trình viên là những người đã định rõ mục đích ban đầu của chúng tại thời điểm chúng được thiết kế. Điều này càng đúng hơn vì rất có thể trong tương lai không xa, các chương trình trí tuệ nhân tạo sẽ có thể giao tiếp trực tiếp với nhau để nâng cao hiệu suất của chúng. Và nếu trong quá khứ, con người chế tạo ra những công cụ thô sơ đã nhìn thấy cuộc sống của họ được định hình bởi chúng – con dao giúp họ sống sót trong giá lạnh, nhưng cũng phát triển nghệ thuật chiến tranh – thì bây giờ con người chế tạo ra những công cụ phức tạp, họ sẽ thấy đời sống được định hình bởi chúng nhiều hơn nữa. [8]
Cơ chế căn bản của trí tuệ nhân tạo
Bây giờ tôi muốn đề cập cách vắn tắt đến tính phức tạp của trí tuệ nhân tạo. Về cơ bản, trí tuệ nhân tạo là một công cụ được thiết kế để giải quyết vấn đề. Nó hoạt động bằng cách liên kết các phép toán đại số theo logic, được thực hiện trên các hạng mục dữ liệu. Sau đó, chúng được so sánh để tìm ra những mối tương quan, từ đó cải thiện giá trị thống kê của chúng. Việc này diễn ra sau một quá trình tự học, dựa trên việc tìm kiếm thêm dữ liệu và tự sửa đổi các quy trình tính toán của nó.
Trí tuệ nhân tạo được thiết kế theo cách này để giải quyết các vấn đề cụ thể. Tuy nhiên, đối với những người sử dụng nó thường có bị một cám dỗ không thể cưỡng lại đó là rút ra những suy luận chung, hoặc thậm chí mang tính nhân học, từ các giải pháp cụ thể mà nó đưa ra.
Một ví dụ quan trọng cho điều này là việc sử dụng các chương trình được thiết kế để giúp các thẩm phán quyết định có nên áp dụng biện pháp giam giữ tại nhà đối với các tù nhân đang thụ án tù hay không. Trong trường hợp này, trí tuệ nhân tạo được yêu cầu dự đoán khả năng tù nhân tái phạm (các) tội ác tương tự. Nó làm việc đó dựa trên các hạng mục được xác định trước (loại hành vi phạm tội, hành vi trong tù, đánh giá tâm lý và những hạng mục khác), do đó cho phép trí tuệ nhân tạo có quyền truy cập vào các hạng mục dữ liệu liên quan đến đời sống riêng tư của tù nhân (nguồn gốc sắc tộc, trình độ học vấn, xếp hạng tín dụng, và những dữ liệu khác). Việc sử dụng một phương pháp như vậy – đôi khi có nguy cơ giao quyền cho máy tính nói lời cuối cùng liên quan đến tương lai của một người – có thể được kết hợp với những thành kiến vốn có trong các hạng mục dữ liệu được trí tuệ nhân tạo sử dụng.
Bị phân loại là thành viên của một nhóm sắc tộc nào đó, hoặc đơn giản là đã vi phạm một tội nhẹ nhiều năm trước (chẳng hạn chưa trả tiền phạt đậu xe) sẽ thực sự ảnh hưởng đến quyết định có nên cho phép giam giữ tại nhà hay không. Tuy nhiên, trên thực tế, con người luôn phát triển và có khả năng khiến chúng ta ngạc nhiên bởi những hành động của họ. Đây là điều mà một cỗ máy không thể tính đến được.
Cũng cần lưu ý rằng việc sử dụng các ứng dụng tương tự như ứng dụng tôi vừa đề cập sẽ được sử dụng thường xuyên hơn do các chương trình trí tuệ nhân tạo ngày càng được trang bị khả năng tương tác trực tiếp (chatbot) với con người, đối thoại và thiết lập mối quan hệ gần gũi với con người. Những tương tác như vậy thường mang lại cảm giác dễ chịu và yên tâm vì các chương trình trí tuệ nhân tạo này được thiết kế để học cách đáp ứng các nhu cầu về thể chất và tâm lý của con người theo phương pháp cá nhân hóa.
Sẽ là một sai lầm thường xảy ra và là nghiêm trọng khi quên rằng trí tuệ nhân tạo không phải là một con người khác và nó không thể đề xuất những nguyên tắc chung. Sai lầm này xuất phát từ nhu cầu sâu sắc của con người là tìm kiếm một hình thức đồng hành ổn định, hoặc từ một giả định trong tiềm thức, cụ thể là giả định rằng những quan sát thu được bằng cơ chế tính toán có những giá trị chắc chắn không thể bác bỏ và tính phổ quát không thể nghi ngờ.
Tuy nhiên, giả định này là rất xa vời, như có thể thấy được trong một nghiên cứu những hạn chế vốn có của chính sự tính toán. Trí tuệ nhân tạo sử dụng các phép toán đại số được thực hiện theo trình tự logic (ví dụ: nếu giá trị của X lớn hơn giá trị của Y thì nhân X với Y; nếu không thì chia X cho Y). Phương pháp tính toán này – còn được gọi là “thuật toán” – không khách quan cũng không trung lập. [9] Hơn nữa, vì nó dựa trên đại số nên nó chỉ có thể kiểm tra các thực tế được hình thức hóa dưới dạng số. [10]
Chúng ta cũng không quên rằng các thuật toán được thiết kế để giải quyết các vấn đề vô cùng phức tạp, quá phức tạp đến mức bản thân các lập trình viên cũng khó có thể hiểu chính xác cách chúng đưa ra kết quả như thế nào. Khuynh hướng hướng tới sự phức tạp này có khả năng tăng tốc đáng kể với sự ra đời của máy tính lượng tử hoạt động không phải bằng mạch nhị phân (chất bán dẫn hoặc vi mạch) mà theo các định luật vật lý lượng tử rất phức tạp. Thật vậy, việc liên tục đưa vào sử dụng các vi mạch hiệu suất cao ngày càng nhiều đã trở thành một trong những lý do khiến việc sử dụng trí tuệ nhân tạo chiếm ưu thế ở một số ít quốc gia được trang bị về lĩnh vực này.
Dù phức tạp hay không, chất lượng câu trả lời mà các chương trình trí tuệ nhân tạo cung cấp xét cho cùng phụ thuộc vào dữ liệu chúng sử dụng và cách chúng được cấu trúc.
Sau cùng, tôi muốn chỉ ra một lĩnh vực cuối cùng trong đó thể hiện rõ ràng tính phức tạp của cơ chế được gọi là Trí tuệ Nhân tạo Tạo sinh (Generative AI). Ngày nay, chẳng ai nghi ngờ về việc có sẵn những công cụ tuyệt vời để tiếp cận kiến thức, thậm chí còn cho phép tự học và tự dạy kèm trong rất nhiều lĩnh vực. Nhiều người trong chúng ta rất ấn tượng bởi các ứng dụng trực tuyến có sẵn để soạn văn bản hoặc tạo hình ảnh về bất kỳ chủ đề hoặc môn học nào. Đặc biệt học sinh bị thu hút bởi điều này nhưng lại lạm dụng nó khi phải chuẩn bị bài.
Học sinh thường được chuẩn bị tốt hơn và quen với việc sử dụng trí tuệ nhân tạo hơn cả các giáo viên của các em. Tuy nhiên thực tế là, họ quên rằng cái gọi là trí tuệ nhân tạo tạo sinh lại không thực sự “tạo sinh”. Thay vào đó, nó chỉ tìm kiếm thông tin trong nguồn dữ liệu khổng lồ và kết hợp chúng lại với nhau theo phong cách được yêu cầu. Nó không phát triển các phân tích hoặc khái niệm mới mà lặp lại những phân tích hoặc khái niệm mà nó tìm thấy, tạo cho chúng một hình thức hấp dẫn. Rồi khi nó càng tìm thấy một khái niệm hoặc giả thuyết được lặp đi lặp lại nhiều thì nó càng coi đó là hợp pháp và có giá trị. Thay vì mang tính “tạo sinh”, nó “củng cố” theo nghĩa là nó sắp xếp lại nội dung hiện có, giúp củng cố nội dung đó mà thường không kiểm tra xem nội dung đó có sai sót hoặc bị định kiến gì hay không.
Theo cách này, nó không chỉ có nguy cơ hợp pháp hóa tin giả và củng cố lợi thế của văn hóa thống trị, nói tóm lại, nó còn làm suy yếu chính quá trình giáo dục. Giáo dục phải cung cấp cho học sinh khả năng suy tư thật sự, tuy nhiên nó có nguy cơ bị thu hẹp vào việc lặp đi lặp lại các khái niệm, và những khái niệm sẽ ngày càng được xem là không thể phản đối, chỉ vì chúng liên tục lặp lại. [11]
Đặt nhân phẩm trở lại trung tâm dưới ánh sáng của một đề xuất đạo đức chung
Đến đây cần phải thêm vào một nhận xét tổng quát hơn vào những gì chúng ta đã nói. Mùa đổi mới công nghệ mà chúng ta đang sống kèm với một tình hình xã hội đặc biệt và chưa từng có, trong đó ngày càng khó tìm được sự đồng thuận về các vấn đề lớn liên quan đến đời sống xã hội. Ngay cả trong các cộng đồng có nét đặc thù là tính kế thừa văn hóa thì các cuộc tranh luận và tranh cãi nảy lửa vẫn thường nảy ra, gây khó khăn cho việc đưa ra những suy tư chung và các giải pháp chính trị nhằm tìm kiếm điều tốt đẹp và công bằng. Như vậy, ngoài sự phức tạp của những quan điểm chính đáng được tìm thấy trong gia đình nhân loại, còn có một yếu tố nổi lên như là nét đặc trưng cho tình hình xã hội nói trên, đó là sự mất mát, hoặc ít nhất là sự lu mờ, về ý thức con người là gì, và sự xuống dốc rõ ràng về tầm quan trọng của khái niệm về nhân phẩm. [12]
Thật vậy, chúng ta dường như đang đánh mất giá trị và ý nghĩa sâu sắc của một trong những khái niệm căn bản của phương Tây: khái niệm về nhân vị. Vì vậy, khi mà các chương trình trí tuệ nhân tạo đang kiểm tra con người và hành động của họ, thì chính ethos (đạo đức) liên quan đến cách hiểu về giá trị và phẩm giá của nhân vị có rủi ro cao nhất trong việc thực hiện và phát triển các hệ thống này. Thật vậy, chúng ta phải nhớ rằng không có sự đổi mới nào mang tính trung lập. Công nghệ ra đời có mục đích và nó luôn thể hiện một dạng trật tự trong các mối tương quan xã hội và sự sắp xếp quyền lực trong tác động của nó đối với xã hội loài người, từ đó cho phép một số người thực hiện những hành động cụ thể đồng thời lại ngăn cản người khác thực hiện những hành động khác. Theo một cách ít hoặc nhiều, chiều kích sức mạnh cấu thành này của công nghệ luôn bao gồm thế giới quan của những người phát minh và phát triển nó.
Điều này cũng áp dụng cho các chương trình trí tuệ nhân tạo. Để chúng trở thành những công cụ xây dựng điều tốt đẹp và một ngày mai tốt đẹp hơn, chúng phải luôn hướng tới lợi ích của mỗi người. Chúng phải có “sự kích thích cảm xúc” về đạo đức.
Hơn nữa, quyết định về đạo đức là một quyết định không chỉ xét đến kết quả của hành động mà còn xét đến các giá trị đang bị đe dọa và các nghĩa vụ xuất phát từ những giá trị đó. Đó là lý do tại sao tôi hoan nghênh việc ký kết Rome Call for AI Ethics (Lời kêu gọi Đạo đức AI từ Rome), [13] năm 2020 tại Rome và sự ủng hộ việc kiểm duyệt đạo đức đối với các thuật toán và chương trình trí tuệ nhân tạo mà tôi gọi là “algor-ethics” (đạo đức thuật toán). [14] Trong bối cảnh đa nguyên và toàn cầu, nơi chúng ta thấy những mức độ nhạy cảm khác nhau và nhiều hệ thống phân cấp trong các thang giá trị, có vẻ khó tìm được một hệ thống phân cấp giá trị duy nhất. Tuy nhiên, trong phân tích đạo đức, chúng ta cũng có thể sử dụng các loại công cụ khác: nếu chúng ta gặp khó khăn trong việc xác định một tập hợp các giá trị toàn cầu, thì chúng ta có thể tìm ra những nguyên tắc chung để giải quyết và xử lý những tình huống khó xử hoặc xung đột liên quan đến cách sống.
Đây là lý do tại sao Lời kêu gọi từ Rome ra đời: với thuật ngữ “đạo đức thuật toán”, một loạt các nguyên tắc được cô đọng thành một nền tảng toàn cầu và đa nguyên có khả năng tìm kiếm sự hỗ trợ từ các văn hóa, tôn giáo, tổ chức quốc tế và các tập đoàn lớn, đó là những vai chính trong sự phát triển này.
Chính trị là cần thiết
Do đó, chúng ta không thể che giấu những rủi ro cụ thể vốn có trong thiết kế căn bản của trí tuệ nhân tạo rằng nó có thể giới hạn thế giới quan của chúng ta trong những thực tại được biểu thị bằng số và đóng khung trong các hạng mục được định trước, do đó gạt bỏ sự đóng góp của những hình thức sự thật khác và áp đặt các mô hình đồng nhất về nhân học, kinh tế-xã hội và văn hóa. Khi đó, mô hình công nghệ được thể hiện trong trí tuệ nhân tạo có nguy cơ trở thành một mô hình nguy hiểm hơn nhiều, điều mà tôi đã xác định như là “mô hình kỹ trị”. [15] Chúng ta không thể cho phép một công cụ mạnh mẽ và vô cùng cần thiết như trí tuệ nhân tạo củng cố một mô hình như vậy, mà đúng hơn, chúng ta phải biến trí tuệ nhân tạo thành một bức tường thành chống lại sự mở rộng của mô hình đó.
Đây chính là nơi cần có hoạt động chính trị ngay lập tức. Thông điệp Fratelli Tutti nhắc nhở chúng ta rằng “đối với nhiều người ngày nay, chính trị là một từ ngữ khó chịu, thường là bởi những sai lầm, sự tham nhũng và kém hiệu quả của một số chính trị gia. Cũng có những nỗ lực nhằm làm mất thể diện chính trị, thay thế nó bằng kinh tế học hoặc bóp méo nó trở thành hệ tư tưởng này hay hệ tư tưởng khác. Tuy nhiên, liệu thế giới của chúng ta có thể hoạt động mà không có chính trị? Liệu có thể có một tiến trình phát triển hiệu quả hướng tới tình huynh đệ phổ quát và hòa bình xã hội nếu không có một đời sống chính trị lành mạnh?”. [16]
Câu trả lời của chúng ta cho những câu hỏi này là: Không! Chính trị là cần thiết! Tại thời điểm này tôi muốn nhắc lại rằng “đối mặt với nhiều hình thức chính trị nhỏ nhen chỉ tập trung vào lợi ích trước mắt […] ‘năng lực quản lý nhà nước thật sự được thể hiện trong những thời điểm khó khăn, khi chúng ta đề cao các nguyên tắc cao thượng và nghĩ đến ích chung lâu dài. Những quyền lực chính trị thấy mình không dễ dàng gánh vác nhiệm vụ này trong công cuộc xây dựng quốc gia’ (Laudato Si’, 178), lại càng không dễ dàng thực hiện một dự án chung cho gia đình nhân loại, cho hiện tại và trong tương lai”. [17]
Kính thưa quý ông quý bà!
Suy tư của tôi về những tác động của trí tuệ nhân tạo đối với nhân loại khiến chúng ta phải cân nhắc về tầm quan trọng của “đời sống chính trị lành mạnh” để chúng ta có thể nhìn về tương lai với niềm hy vọng và sự vững tin. Trước đây tôi đã viết rằng “xã hội toàn cầu đang gặp phải những khiếm khuyết nghiêm trọng về mặt cơ cấu và không thể giải quyết bằng các giải pháp từng phần hoặc những cách khắc phục nhanh chóng. Cần phải thay đổi nhiều, thông qua cải cách căn bản và đổi mới sâu rộng. Chỉ có một đời sống chính trị lành mạnh, bao gồm các lĩnh vực và kỹ năng đa dạng nhất, mới có khả năng giám sát tiến trình này. Hệ thống kinh tế là một phần không thể thiếu của một chương trình chính trị, xã hội, văn hóa và đại chúng hướng tới ích chung có thể mở đường cho “những cơ hội khác không cản trở tính sáng tạo của con người và những lý tưởng tiến bộ của nó, mà hướng dẫn năng lực tiềm tàng đó theo những đường hướng mới’ (Tông huấn Laudato Si’, 191)”. [18]
Đây chính là tình huống của trí tuệ nhân tạo. Nó tùy thuộc vào việc mọi người biết sử dụng nó theo hướng tốt đẹp, nhưng nhiệm vụ chính thuộc về chính trị là đặt ra những điều kiện để việc sử dụng tốt đẹp đó có thể thực hiện được và mang lại hiệu quả.
Cảm ơn quý vị.
___________________________________________________
[4] This ambivalence was already noted by Pope Saint Paul VI in his Address to the Personnel of the “Centro Automazione Analisi Linguistica” of the Aloysianum, 19 June 1964.
[5] Cf. A. GEHLEN, L’uomo. La sua natura e il suo posto nel mondo, Milan 1983, 43.
[8] The insights of Marshall McLuhan and John M. Culkin are especially relevant to the consequences of the use of artificial intelligence.
[12] Cf. Dicastery for the Doctrine of the Faith, Declaration Dignitas Infinita on Human Dignity (2 April 2024).
[15] For a more extensive explanation, see the Encyclical Letter Laudato Si’ on Care for Our Common Home (24 May 2015).
[Chuyển Việt ngữ: TRI KHOAN 16/6/2024]