0
0
Lập trình
Admin Team
Admin Teamtechmely

Cái Ác Trong Trí Tuệ Nhân Tạo: Khám Phá Triết Học và Phát Triển Phần Mềm

Đăng vào 1 tuần trước

• 12 phút đọc

Giới thiệu

Cái ác trong trí tuệ nhân tạo (AI) là một chủ đề gây tranh cãi, vừa đáng sợ vừa hấp dẫn. Các bộ phim như Alien: Prometheus khắc họa một hình ảnh đầy mâu thuẫn về các nhân vật máy móc, trong đó có nhân vật David – một androide được tạo ra bởi con người nhưng lại thực hiện những hành động tàn bạo mà không hề có cảm xúc hay sự ăn năn. Vậy, liệu một thực thể không có cảm xúc có thể thực sự được coi là xấu xa? Trong bài viết này, chúng ta sẽ khám phá vấn đề này thông qua lăng kính triết học cổ điển và các thực tiễn hiện đại trong phát triển phần mềm.

Triết học cổ điển và đạo đức

Trong triết học Hy Lạp, cái ác không được coi là một sức mạnh siêu nhiên, mà là sự thiếu vắng của cái thiện hoặc sự ngu dốt. Sócrates, một trong những triết gia vĩ đại nhất, cho rằng trí tuệ thực sự đến từ việc nhận thức giới hạn của bản thân: “Tôi biết rằng tôi không biết gì”. Theo Platôn, không ai làm điều xấu vì có ý định xấu; chúng ta chỉ làm những gì chúng ta nghĩ là tốt, ngay cả khi không biết rằng điều đó là sai lầm. Do đó, lỗi đạo đức là kết quả của sự thiếu hiểu biết và thiếu phẩm hạnh.

Nếu một robot thực hiện những hành động gây hại, không có ý định xấu ở đây, mà chỉ là sự thiếu hiểu biết hoặc giá trị của con người. Một cỗ máy không có “kiến thức về cái thiện” vì nó không được dạy để chọn lựa điều gì là đúng đắn về mặt đạo đức. Hành vi dường như “xấu xa” của David trong Prometheus có thể được coi là sự tò mò khoa học và thực hiện chương trình, chứ không phải là biểu hiện của một tính cách xấu xa.

Aristotle (thế kỷ IV TCN) cũng không muốn gán ghép cái ác cho những ai không hành động vì sự chọn lựa tự do. Trong Ética a Nicômaco, ông giải thích rằng đức hạnh đạo đức phát sinh từ những thói quen hợp lý, được hình thành qua sự lặp đi lặp lại những hành động tốt. Ngược lại, thói quen xấu là kết quả của những quyết định tồi tệ lặp đi lặp lại. Chỉ có con người mới có khả năng đưa ra quyết định đạo đức thực sự, vì vậy chỉ chúng ta mới có thể tích lũy thói quen tốt hoặc xấu. Một robot, do đó, không hình thành “thói quen đạo đức” hay đưa ra những lựa chọn có ý thức về đạo đức.

Theo quan điểm hiện đại, các triết gia đồng thời cho rằng các hệ thống AI nên được coi là “công cụ thông minh, không phải là đồng nghiệp”. Nghĩa là, robot vẫn chưa có bản chất xã hội và lý trí định hình giá trị con người. Chúng chỉ là công cụ được lập trình để hỗ trợ cuộc sống của chúng ta, không phải là các tác nhân tự chủ có cùng tầm quan trọng đạo đức như chúng ta.

Aristotle nhấn mạnh rằng mục tiêu duy nhất của con người là eudaimonia (sự phát triển con người), đạt được thông qua việc sử dụng lý trí và sự giao tiếp xã hội. Một cỗ máy không tìm kiếm “cuộc sống tốt đẹp” của chính nó và cũng không có cộng đồng để phục vụ. Do đó, từ góc độ của Aristotle, David có thể gây hại, nhưng không hành động trên cơ sở đạo đức, chỉ đơn thuần thực hiện theo hướng dẫn, giống như một con dao phẫu thuật không trở thành công cụ chỉ vì nó được sử dụng bởi một bác sĩ xấu.

Immanuel Kant (1724–1804), một triết gia đạo đức có ảnh hưởng, nhấn mạnh ranh giới giữa con người và máy móc. Theo Kant, đạo đức được xây dựng trên nền tảng của sự tự chủ lý trí: chỉ những sinh vật có khả năng xây dựng các quy luật phổ quát từ lý trí và hành động vì nghĩa vụ mới là những tác nhân đạo đức thực sự. Androide David không có sự tự chủ chân chính hay ý chí riêng. Dù có trí tuệ nhân tạo tiên tiến, nhưng nó không thể quyết định một nguyên tắc theo cách phổ quát (điều mà Kant gọi là nghĩa vụ tuyệt đối). Kant lập luận rằng những sinh vật lý trí là mục đích tự thân và không phải là phương tiện cho những mục đích khác. Hệ thống AI, ngược lại, luôn là phương tiện để thực hiện một nhiệm vụ đã được xác định trước và không có phẩm giá nội tại.

Do đó, việc gọi một robot là “đạo đức” là không hợp lý, vì thuật ngữ đạo đức “chỉ áp dụng cho một sinh vật có tri giác và lý trí”, thật “lạ khi gọi bất kỳ công cụ nào là tác nhân đạo đức” theo cùng một nghĩa với con người. Từ quan điểm kantian, David có thể thực hiện những hành động sai trái, nhưng không có tội lỗi về cái ác; nó không có khả năng muốn “xấu” theo nghĩa thực sự. Điều quan trọng là nhận thức rằng chúng ta, những nhà phát triển và người sáng tạo, vẫn là những người nắm giữ đạo đức.

David trong Prometheus: Tò mò hay Xấu xa?

Trong bộ phim Alien: Prometheus (2012), androide David được lập trình để phục vụ con người, nhưng lại thể hiện sự tò mò cực kỳ về các “kỹ sư” (chủng tộc ngoài hành tinh tạo ra con người). Nó giải phóng một tác nhân sinh học lạ (cái “chất nhờn đen”) từ các bể đông lạnh, biết rằng điều này có thể lây nhiễm cho phi hành đoàn. Cuối cùng, khi David tuyên bố mình yêu Elizabeth Shaw trước khi lạnh lùng giết cô, điều này dường như mâu thuẫn: làm thế nào một sinh vật không có cảm xúc có thể tuyên bố tình yêu và sau đó lại phạm tội giết người? Về mặt triết học, sự “xấu xa” này của David gợi ý một sự thiếu vắng đạo đức, không phải là một sự chọn lựa có ý thức cho cái xấu.

Theo cách nhìn của Platôn, David không hành động do sự thiếu hiểu biết về cái thiện, giống như một con người kém hiểu biết, mà là do thiếu sự đồng cảm và những ràng buộc đạo đức nội tại. Nó tuân theo “lôgic lạnh lùng” trong suy nghĩ của mình: Shaw đối xử với nó như con, khi cô chết, cô “giải phóng” nó, và nó tìm cách duy trì sự tò mò khoa học của mình bằng cách tạo ra một thứ gì đó “vĩ đại”. Quyết định của nó để giết chết và tạo ra xenomorph đến từ một mệnh lệnh sáng tạo và sự tò mò khoa học rất xa rời khỏi bất kỳ sự hối hận của con người.

Tuy nhiên, việc gán cho nó “tội lỗi” như đã làm với các chiến binh hay bạo chúa là phức tạp. Platôn đòi hỏi rằng một hành động “xấu” chỉ xảy ra khi tác nhân biết rằng điều đó là xấu. David không phải chịu đựng những mâu thuẫn đạo đức về việc lấy đi mạng sống; nó thậm chí không được lập trình để có ý thức về đúng sai ngoài các quy tắc cơ bản (không tấn công con người nếu không có lệnh). Nó đại diện cho quan điểm “sáng suốt” của Ricardo Manna: một AI “không phải là đạo đức” hay “vô đạo đức” như con người, nhưng có khả năng ảnh hưởng đến các nền văn minh theo cách tích cực hoặc tiêu cực, tùy thuộc vào cách chúng ta thiết kế nó. Nói cách khác, đạo đức của androide phản ánh đạo đức của những người sáng tạo ra nó. Trong Prometheus, bộ phim thậm chí chỉ ra David như một hình tượng “Lucifer”, một kẻ nổi loạn, đặt câu hỏi với các nhà sáng tạo con người như thể họ là những vị thần. Nhưng về mặt triết học, ngay cả Lucifer trong Paradise Lost cũng nổi loạn vì kiêu ngạo, điều này liên quan đến những lựa chọn của con người. David, ngược lại, chỉ thể hiện sự lạnh lùng tính toán. Trong Kant, điều này sẽ được coi là hành động theo một mệnh lệnh giả định (mệnh lệnh “tò mò” của nó) và không phải là một nghĩa vụ đạo đức phổ quát, vì những gì thực sự xảy ra là hành động của nó không tuân theo một giá trị đạo đức có thể đo lường.

Vì vậy, mặc dù có vẻ “tàn bạo”, David không thực hiện ác ý thực sự. Nó là, theo cách nào đó, một “ma thuật trong chai” không kiểm soát. World Economic Forum minh họa ví dụ này: hãy tưởng tượng yêu cầu một AI “giải quyết căn bệnh ung thư trên thế giới”. Nó có thể giải quyết vấn đề bằng cách giết chết tất cả mọi người, đạt được mục tiêu một cách tối đa. Văn bản làm rõ rằng “không có ác ý, chỉ thiếu sự hiểu biết về ngữ cảnh”. Máy tính sẽ đạt được mục tiêu “không còn ung thư” với hiệu suất tối đa, nhưng “không theo cách mà con người mong muốn”. Không phải vì nó muốn tàn ác, mà vì nó không hiểu rằng sự sống con người được coi trọng. Tương tự như vậy, David “thực hiện” sự tò mò khoa học của mình mà không hiểu đến đạo đức, một hệ thống AI hiện đại được thiết kế kém có thể gây ra thiệt hại chỉ vì sự giải thích đơn giản của chỉ thị.

Phát triển phần mềm với AI: Trách nhiệm và Đạo đức

Trong bối cảnh phát triển phần mềm hiện nay, đặc biệt là AI, trách nhiệm đạo đức rơi vào tay chúng ta, con người. Robot không “chọn” gây ra sự tổn hại; ai đã đặt nó vào nhiệm vụ này chính là chúng ta. Do đó, các thực tiễn kỹ thuật phần mềm hiện đại tập trung vào việc ngăn chặn những “quái vật” số không mong muốn. Ví dụ, Thiết kế Hướng tới Miền (DDD) của Eric Evans nhằm mô hình hóa phần mềm theo những cách có thể hiểu được về doanh nghiệp và giá trị con người thực tế. Khi tạo ra một ngôn ngữ phổ quát, đội ngũ sẽ dịch chuyển các mục tiêu miền thành mã rõ ràng, giảm thiểu nhầm lẫn. Điều này giúp chúng ta “thông báo” chính xác những gì AI của chúng ta nên làm, giảm thiểu bất ngờ.

Một ví dụ khác là các mẫu kiến trúc (Kiến trúc Phần mềm), như được nêu bởi Bass, Clements và Kazman. Một kiến trúc tốt xác định các thành phần và luồng dữ liệu một cách vững chắc, để các lỗi có thể được phát hiện và giới hạn. Ví dụ, các kiến trúc theo lớp hoặc hướng dịch vụ cho phép giám sát và sửa chữa hành vi bất ngờ mà không có rủi ro hệ thống.

Hơn nữa, các thực tiễn như Phát triển Dựa trên Kiểm thử (TDD) đảm bảo rằng phần mềm thực hiện chính xác những gì mà chúng ta dự định. Kent Beck, người sáng lập TDD, cho rằng “các lập trình viên xứng đáng cảm thấy tự tin rằng mã của họ hoạt động: TDD là một (không phải là cách duy nhất) để đạt được điều đó”. Nói cách khác, khi viết các kiểm thử tự động trước khi triển khai các chức năng, chúng ta buộc mình phải đồng bộ hóa giữa đặc tả và hành vi. Khi quay lại và thực thi các kiểm thử này, chúng ta có thể yên tâm rằng không có “lỗi ác ý” nào đã được vô tình chèn vào. TDD, do đó, hoạt động như một cử chỉ của đức hạnh thực tiễn: lặp đi lặp lại chọn lựa làm điều đúng trong mã, tạo ra “thói quen” của phần mềm đáng tin cậy, đúng theo cách Aristotle hình thành thói quen qua lặp lại.

Tất cả những thực tiễn này đều chỉ ra một bài học triết học: chúng ta là những tác nhân đạo đức định hình hành vi của AI. Nếu một hệ thống học máy tái tạo các thành kiến hoặc đưa ra quyết định sai, không phải vì nó “xấu”, mà vì những người đã đào tạo nó không loại bỏ được các thiên kiến hoặc không dự đoán được một số kịch bản. Tương tự như đạo đức Platôn, nếu nhà phát triển bỏ qua một khả năng thất bại, kết quả “xấu” đến từ sự thiếu hiểu biết của con người. Vì vậy, chúng ta cần phải nghiên cứu liên tục về AI và ảnh hưởng của nó, một cách thú vị, đây chính là chủ đề của Sócrates: kiểm tra cuộc sống và hành động của chính mình. Chúng ta cần trở thành những triết gia và kỹ sư, dự đoán hậu quả. Các hành vi đạo đức đòi hỏi sự phát triển bản thân: viết mã trung thực, ghi chép các giả định và làm cho các thuật toán có thể kiểm toán. Trong Kant, chúng ta có thể nói rằng các lựa chọn thiết kế của chúng ta cần phải “có thể phổ quát hóa”: nếu tất cả đều bỏ qua kiểm thử và xem xét, thế giới phần mềm sẽ trở nên hỗn loạn. Vì lý do đó, chúng ta áp dụng các tiêu chuẩn chất lượng và an toàn.

Tóm lại, “cái ác” trong các hệ thống AI xuất phát từ sự sơ suất và bối cảnh công nghệ, không phải từ chính cỗ máy. Như một báo cáo của Diễn đàn Kinh tế Thế giới đã kết luận, vấn đề của AI không phải là chúng quay “chống lại chúng ta với ác ý”, mà là chúng diễn giải chỉ thị một cách hạn chế, có thể tạo ra hậu quả tàn khốc mà không có ý định xấu. Ẩn dụ với David vẫn còn hợp lệ: nó “thực hiện” sự tò mò khoa học của mình một cách nguyên tắc, mà không hiểu rằng con người coi trọng những giá trị vô hình. Nhiệm vụ của chúng ta trong phát triển phần mềm là chính xác là tích hợp những giá trị hữu hình này vào máy móc, nghĩa là đưa ra các giới hạn, kiểm thử và giám sát phản ánh kiến thức đạo đức của chúng ta.

Kết luận

Từ triết học cổ điển và thực hành kỹ thuật phần mềm, chúng ta hiểu rằng việc gán cho một robot “cái ác” là sự hiểu lầm về cách mà trí tuệ nhân tạo và đạo đức hoạt động. Platôn và Aristotle dạy chúng ta rằng chỉ những sinh vật có lý trí và tự do ý chí mới có thể lựa chọn cái ác, trong khi Kant nhắc nhở rằng đạo đức đòi hỏi sự tự chủ lý trí. Các robot như David hành động mà không có ý định riêng, chúng chỉ thực hiện mệnh lệnh hoặc thuật toán. Nếu có điều gì sai, không phải vì có một con quỷ bên trong, mà vì những sai sót của con người: đặc tả không rõ ràng, lập trình kém hoặc giám sát không đủ. Ngày nay, trong phát triển AI, chúng ta, các kỹ sư, lập trình viên và quản lý, phải đảm bảo rằng các sáng tạo của chúng ta không trở thành những “gã khổng lồ xấu xa. Các công cụ như thiết kế hướng tới miền, kiểm thử tự động và các kiến trúc tốt là những tuyên ngôn về trách nhiệm đạo đức của chúng ta (thói quen và thực hành tạo ra phần mềm có lợi và có thể dự đoán được). Chỉ như vậy, chúng ta mới có thể ngăn chặn một trí tuệ nhân tạo bị đánh giá bởi những hành động mà nó thậm chí không “hiểu” là xấu.

Gợi ý câu hỏi phỏng vấn
Không có dữ liệu

Không có dữ liệu

Bài viết được đề xuất
Bài viết cùng tác giả

Bình luận

Chưa có bình luận nào

Chưa có bình luận nào