Thứ Hai, 11 tháng 9, 2017

Guidance Systems – 2 (Jacob Ward): Robot sát thủ và bài toán đạo đức của tự động hóa



Guidance Systems – 2 (Jacob Ward): Robot sát thủ và bài toán đạo đức của tự động hóa

            Một khi đã ngồi vào trong hệ thống mô phỏng bay, bạn sẽ dần dần bị hoa mắt.

“Hệ thống mô phỏng bay – Flight simulator” – không làm công việc xứng đáng với máy móc, nhưng những từ ngữ này lại là những từ chính xác nhất để mô tả nó. Có các hệ thống mô phỏng bằng phần mềm cho bạn thấy việc lái máy bay đang diễn ra thế nào. Và có những hệ thống mô phỏng vật lý sẽ va vào bạn nhờ một cần cẩu nhỏ. Nhưng hệ thống kiểu này không giống thế. Đây là toàn bộ kinh nghiệm mà tôi sẽ rửa mắt cho bạn.
            Tôi đã ở trong một khoang chứa như cái thùng màu trắng không cửa sổ, chỉ đủ rộng để đại diện cho không gian bên trong một máy bay phản lực chiến đấu. Cái khoang chứa được gắn bên phải của nó với một khớp nối khổng lồ để có thể quay theo bất kỳ hướng nào. Và toàn bộ thứ đó được treo lên đầu một máy ly tâm dài khoảng 100 foot (cỡ 30,5 mét) có thể lấp kín căn phòng có kích cỡ như một xưởng máy bay thu nhỏ.
            Chiếc máy thay thế này có thể tạo ra bất kỳ cảm giác nào mà một chiếc máy bay có thể tạo ra – tất nhiên là nhiều như bạn hay tôi từng có đủ ý thức trải nghiệm. Mô phỏng kiểu này có nghĩa là, trong khi tôi đang quay vòng tròn chẳng hạn, hình ảnh trên màn hình được hiển thị để đánh lừa bộ não khiến não tôi nghĩ rằng tôi đang du ngoạn theo đường thẳng giữa bầu trời bao la. Tôi đã từng tham gia trò này qua cái mà các nhà sản xuất gọi là thử nghiệm gia tốc nhỏ. Khi các hình ảnh trên màn hình nói với tôi rằng tôi đang phóng như bay lên trên hướng về phía mặt trời tưởng tượng, chiếc máy ly tâm phải quay nhanh hơn, nhanh tới mức gấp sáu lần lực hấp dẫn là điều tôi từng trải nghiệm, đủ để nghiền nát gương mặt và thân mình tôi trên ghế ngồi. Thật đáng sợ và cực kỳ không thoải mái. Quả táo của Adam thường nhô ra trước cổ họng tôi, lúc đó bị ép chặt vào phía sau cổ họng khi cái máy rên lên ở tốc độ ngày một cao. Nhưng điều đó chỉ ra rằng loại lực G này (theo trục trước – sau của cơ thể), loại lực có thể tạo ra những bức ảnh khủng khiếp về các phi công đẹp trai điển hình bị vặn thành yêu quái, thực ra lại là loại lực dễ xử lý nhất. Chỉ cần hệ thống mô phỏng kia cho bạn trải nghiệm lực G giảm dần từ trên xuống dưới, nó sẽ nén cơ thể về phía bàn chân, và mọi thứ thế là đi tong.
            Khi cái khoang chứa quay được khoảng nửa vòng, chân tôi lúc này đã ở rất xa ngoài vòng quay của máy ly tâm, giả như cảm giác vẫn còn rất cứng cỏi tự tin, tôi cố làm theo những gì người ta bảo: ép mông, ấn bàn chân xuống bàn đạp, tất cả nhằm gắng hết sức giữ máu đi lên trên eo. Nhưng vô ích. Ở mức lực bằng 3,5G não tôi đã mất khả năng lưu thông. Tôi bắt đầu nhìn thấy nhiều màu sắc, rồi thấy một đường hầm tối đen dần dần hình thành tại ranh giới tầm nhìn, và ngay sau đó tôi bị mù. Tôi hổn hển nói “Tôi không thể nhìn thấy gì.” Người vận hành phải giảm tốc độ chiếc máy ngay trước khi tôi mất ý thức.
            Tôi mất khoảng 1 giờ đồng hồ nằm trên ghế gấp để phục hồi lại. Không chỉ mê man bất tỉnh như thế, xung đột giữa những gì tai trong của tôi trải qua (chuyển động quay) và những gì mắt tôi được cho nhìn thấy trong khoang (hoạt cảnh mô phỏng bay) là giao tiếp sai lạc cổ điển tạo ra chứng say khi chuyển động (như say tàu xe).

            Nhưng cuối cùng tôi đã qua khỏi, và ngồi xuống cùng với vị bác sĩ quân y để tìm hiểu xem tại sao tôi thất bại. Ông giải thích rằng việc ngất xỉu của tôi là sự gián đoạn vòng thủy tĩnh – một kết nối bằng chất lỏng giữa tim và não giúp bạn có ý thức. Khi giảm các lực G kiểu này từ trên xuống đã phá vỡ kết nối đó, vì nó kéo máu dồn xuống chân, bạn sẽ bị mê man bất tỉnh.
            Ông cũng nói cho tôi biết công ty của ông bán hệ thống mô phỏng này cho các lực lượng không quân đồng minh trên toàn thế giới, và rất thường thì các lực lượng này sẽ lại kết hợp hệ thống mô phỏng bay của họ với một không gian tưởng tượng khổng lồ, đưa vào đó những phi công giỏi nhất, và những cuộc không chiến. Nó giống như giải đấu trò chơi điện tử cao cấp, trong đó ói mửa và vô thức là một phần của món hời.
            Tôi hỏi: “Thế sao? Ai thắng?”
            Ông ấy trả lời: “Người Bahrain”.
            “Tại sao vậy? Tại sao họ lại giỏi đến vậy?”
            Ông ấy bảo, có vẻ xấu hổ: “Ồ, thực ra không phải vì họ giỏi. Đó là vì họ thường là những người nhỏ con nhất. Vòng thủy tĩnh của họ ngắn nhất, vì thế rất khó bị phá vỡ. Họ có thể biến nó trở nên chặt hơn các đội khác.”
            Điều đó cho thấy hệ thống này quyết định kết quả cuộc chiến không phải là vũ khí, mặt bằng bay hay ngoại thất bọc thép. Chính là khuynh hướng mang yếu tố con người dễ mất ý thức khi đi sai hướng. Sự khác biệt giữa thắng và thua trong việc kiểm soát chiếc máy bay chiến đấu giá 90 triệu đô tính theo tổng số những phi công có tim và não ở vị trí gần nhau nhất.            
            Đó là lý do tại sao cựu Bộ Trưởng Hải Quân Ray Mabus đã nói một câu nổi tiếng về máy bay chiến đấu F-35, mẫu mới nhất được chế tạo, rằng nó “nên và hầu như chắc chắn sẽ là chiếc máy bay chiến đấu dùng để tấn công cuối cùng mà Bộ Hải quân Hoa Kỳ sẽ mua hoặc bay.” Phi công chính là điểm yếu lớn nhất của chiếc máy bay này.
            Đó cũng là lý do tại sao các quân đội trên thế giới đang tự động hóa mọi thứ từ nhiệm vụ canh gác tới súng phòng không hay chiến tranh mạng. Con người không hợp với công việc này.
            Đây là lý do Tổ chức Theo dõi Nhân Quyền (Human Rights Watch) và giờ là một nhóm các lãnh đạo khối doanh nghiệp dùng robot và AI do Elon Musk cầm đầu đã yêu cầu Liên Hợp Quốc tạo ra một loại công ước Geneva nhằm cấm dùng robot chế tạo vũ khí. Những người lính bằng xương bằng thịt với các yếu đuối và hạn chế của con người có nguy cơ sắp sửa bị thay thế bằng những máy móc không có các điểm yếu trên.
            Chúng ta đang sử dụng công nghệ ra quyết định mà đến cả loài người chúng ta cũng không thể đồng ý ngay cả khi tự ta làm. Trong quá trình đó, chúng ta cũng đang thay đổi cách chúng ta ra những quyết định kiểu này. Công nghệ quân sự có thể đang lập trình lại thái độ của chúng ta với chiến tranh.

            Hãy xem xét cách công nghệ đã định hình thói quen của chúng ta ngay cả khi chúng ta không cố gắng giết lẫn nhau. Khi tôi hạ cánh xuống một thành phố mới và phải lái xe từ sân bay vào thị trấn, Google Maps cho tôi đầy đủ lựa chọn – đây là xa lộ, kia là đường khác, kia nữa là đường nhỏ. Tôi cẩn thận lựa chọn. Sau đó khi đang lái xe, tôi bắt đầu nghĩ về thực tế chắc chắn có hàng tá cách khác để tới đó. Nhưng hệ thống định vị chúng ta đang xài đã lọc vô số lựa chọn bằng một câu hỏi nhiều đáp án, và chúng ta bị cuốn theo với suy nghĩ rằng chỉ có ba cách vào thị trấn. Nó khiến ta cảm thấy như thể chúng ta đang có nhiều lựa chọn hơn, dù thực tế chúng ta chỉ có ít hơn rất nhiều.
            Các hệ thống quân sự cũng vậy. Công ty Boeing cùng với hầu hết các đối thủ cạnh tranh của mình đã đưa ra các sản phẩm “lập kế hoạch nhiệm vụ - mission planning” nhằm ra các quyết định quân sự giống như Google đã làm cho chuyến đi của bạn. (Chú ý Mission Planning là một sản phẩm của Boeing từ năm 1975). Các hệ thống kiểu này thu nạp mọi phức tạp và mức độ khẩn cấp của kế hoạch quân sự và cố gắng hết sức để giảm thiểu các lựa chọn. Dù có cần điều quân vào ra chiến trường hay không, lên kế hoạch nã tên lửa vào một vị trí, hay triển khai binh bảo vệ thị trấn, phần mềm sẽ thu nạp tất cả các biến số mở vào trong một trình đơn tiện lợi. Bạn có thể chọn một tuyến đường đẹp từ danh sách Google cung cấp cho. Một chỉ huy hải quân có thể chọn một đường bay đi qua núi từ danh sách Boeing cung cấp cho họ.
           
            Vào năm 2013, tại Fort Benning, Georgia, Quân đội đã mời một nhóm các nhà thầu quân sự liên quan tới robot để khoe thành quả tuyệt nhất của họ tại một căn cứ vũ khí di động tự định hướng – cơ bản thì đó là một con robot trang bị súng. Đó là một trong những lần đầu tiên Hoa Kỳ cho trình diễn công khai ý định tự động hóa các hoạt động trong chiến tranh. Nhiều xe tăng nhỏ lăn bánh bên ngoài dàn trận khai hỏa, người vận hành chỉ đứng quanh đâu đó ở khoảng cách an toàn, mỗi robot được phép là đối tượng cuối cùng đi lên phía trước để bắn, chúng bắn lên một sườn đồi đầy các mục tiêu.
            Hàng tiến lên cuối cùng để bắn này là sự bảo đảm số một mà phát ngôn viên quân đội đề cập tới khi được hỏi về đạo đức khi vũ trang bằng robot. Thuật ngữ kỹ thuật là “con người trong vòng lặp – human in the loop” – được lập luận rằng: con người sẽ luôn luôn được tham gia vào việc quyết định sử dụng vũ khí chết người. Nhưng ngay cả khi nếu đó là sự thật, thì vai trò của con người vẫn rất khác khi robot đang cầm súng. Thay vì kích hoạt bắn, hay thậm chí bảo một con robot hãy kéo cò, con người bị đẩy xuống vị thế ít quyền lực hơn nhiều. Robot chuẩn bị mọi thứ từ tinh thần đến hậu cần, còn lựa chọn của con người bị giảm xuống chỉ còn “tiếp tục” hoặc “đứng yên”.
            Như vậy, con người đã ra khỏi vòng lặp, vì ngay khi các cơ quan trong cơ thể người không còn được tin tưởng có thể giữ con người khỏi bị ngất xỉu khi kiểm soát máy bay chiến đấu, các giác quan và thời gian phản ứng của con người không đủ nhanh để xử lý các loại tình huống cuộc chiến hiện nay cần tới. Theo Peter W. Singer, tác giả cuốn Wired for War và chiến lược gia tại Tổ chức New America Foundation, ông nói với tôi trong podcast tập gần đây của tôi Complicated, rằng nhiều hệ thống đã tồn tại đang lôi con người hoàn toàn ra khỏi vòng lặp.
            Hệ thống SeaRAM do Raytheon xây dựng, là một hệ thống phòng vệ tàu lớp cuối để đánh bật tên lửa khỏi vùng trời. Con người không có ích gì trong vai trò này, vì vài giây giữa phát hiện và hứng tác động đơn giản là không đủ thời gian để tham khảo ý kiến của người điều khiển, hoặc ít nhiều yêu cầu người đó theo dõi hay kích hoạt vũ khí. Vì vậy, con tàu phải tự bảo vệ nó bằng một loại pin tự động và dàn tên lửa của riêng nó. Con tàu tự phát hiện, theo dõi và bắn vào các mục tiêu nhắm tới nó mà không cần bất cứ người nào tham gia. Khẩu hiệu của công ty cho hệ thống này là “Bảo vệ tàu tiên tiến”.

            Ở Israel, hệ thống Iron Dome đã hoạt động được vài năm, nó chặn các tên lửa tự chế bắn tới từ lãnh thổ Palestine. Đây lại là trường hợp con người vô dụng. Rocket nói chung quá nhanh để con người có thể đáp trả, vì thế hệ thống tự động này đang xử lý nó cho chúng ta.
           
            Cuối cùng, chiến tranh mạng còn làm giảm thời gian phản ứng xa hơn nữa, từ vài giây tới vài mili-giây, nó đòi hỏi toàn bộ quyền hạn đối với các hệ thống tự động phát hiện và đáp trả các cuộc tấn công trong không gian ảo. Con người thậm chí còn không thể bắt đầu nhập cuộc trong vòng lặp này cho đến khi cuộc tấn công và đáp trả kết thúc một lúc lâu sau.

            Đúng vào khoảng thời gian tôi bắt đầu làm quen với các loại trạng thái khi bị đẩy kéo mê man trong hệ thống mô phỏng bay kia, tôi đã làm một chương trình truyền hình về những chiếc máy bay bí mật hàng đầu và bị kéo tới giải pháp cho vấn đề ngất xỉu của phi công: chiếc X-47B. Được Northrop Grumman chế tạo tại cơ sở quân sự có tên Nhà máy 42 ở Palmdale, California, chỉ cách Los Angeles vài dãy núi, đây là chiếc đầu tiên trong thế hệ máy bay chiến đấu không người lái đang được nhiều chi nhánh trong quân đội thử nghiệm. Thật khó khăn để mô tả. Toàn bộ mọi bản năng của tôi ở thế kỷ 20 về máy bay dẫn tôi tới hy vọng ai đó đang ngồi bên trong, thế nên bối rối làm sao khi chỉ thấy một cái cửa đen lớn lẽ ra nên ở trước buồng lái, và những thanh nhôm rào khoảng trống lớn nơi bạn hy vọng phi công đang vẫy tay với bạn. Cái đó thực sự không có khuôn mặt, không có cảm xúc. Thế nhưng nó đã cất cánh và hạ cánh thành công trên tàu sân bay mà không cần yếu tố con người nào tham gia – một trong những việc khó khăn nhất mà một phi công lái máy bay chiến đấu bị yêu cầu phải làm được.
            Nhiều suy nghĩ đã đi qua tâm trí tôi dù đang đứng dưới cái nóng như đổ lửa, nhìn vào tương lai của chiến tranh. Chỉ có một điều, không có con người có nghĩa là không phi công nào sẽ phải bị đạn bắn, bị bỏng hoặc cần giải cứu. Có lẽ đó là điều tốt. Nhưng tôi cũng biết rằng, chi phí bỏ ra chế tạo đắt đỏ như thế, nó chỉ là chiếc máy dùng một lần rồi bỏ, nhưng có thể biến hóa cứng rắn hơn bất kỳ phi công bằng xương bằng thịt nào có thể. Chính hệ thống thuận tiện kinh khủng này sẽ làm cho chiến tranh trở nên dễ dàng hơn bao giờ hết về mặt hậu cần, đạo đức và chính trị. Chúng ta đã thiết kế loại bỏ sự yếu đuối của con người khỏi kiểu hệ thống tự động này. Nhưng làm sao chúng ta có thể thiết kế để đưa đạo đức con người vào đó?

            Chúng ta dạy robot hiểu các giá trị của chúng ta như thế nào?

            Tự động hóa các thao tác cơ bản của con người – nấu ăn, lái xe, giết người – đang được tiến hành. Quân đội Hoa Kỳ đang tích cực theo đuổi tự động hóa trong hầu hết mọi hoạt động, từ chương trình Loyal Wingman của Không Lực Hoa Kỳ nhằm tích hợp các phi công bằng xương bằng thịt với máy bay tự động, tới chương trình Science of Autonomy của Phòng Nghiên Cứu Hải Quân đang theo đuổi những mục tiêu khác nhằm giảm “sự thuần hóa và các yêu cầu giao tiếp khác”.   
            Khó khăn là tự động hóa các tác vụ trên không chỉ là câu hỏi về lập trình tập lệnh. Đó còn là câu hỏi về lập trình tập giá trị. Rõ ràng khi có đủ thời gian và tiền bạc, chúng ta có thể làm những cái như trước đây. Không rõ ràng là chúng ta liệu có biết cách làm thế hệ sau không. Lúc này nước Mỹ vẫn không ký bất kỳ hiệp ước nào về quản lý việc sử dụng vũ khí tự động hóa.
            Điều đó không có nghĩa là đạo đức của các hệ thống kiểu này không được thảo luận. Ngay từ năm 2008, một văn bản về đạo đức của tự động hóa trong quân đội từ CalPoly do ONR hỗ trợ tiền đã lo ngại rằng các chiến binh bằng robot có thể hạ thấp “ngưỡng đi vào các cuộc xung đột và chiến tranh, vì mạng sống của quân lính Mỹ sẽ ít bị đe dọa hơn.”
            Nhưng vấn đề sâu sắc hơn là, chúng ta hy vọng tạo ra robot thay thế cho chính mình khi thực ra chúng ta còn chưa hiểu một cách căn bản chúng ta là ai. Các nhà kinh tế học, tâm lý học, thần kinh học đều nhận ra rằng hiện thực bạn hay tôi trải qua chưa chắc đã là thật. Có thể nhầm lẫn khi giả định vô thức, ký ức không chính xác và kích thích bên ngoài ào đến tạo ra trạng thái lộn xộn như các máy bay trong một sân bay. Và dù chúng ta liên tục rơi vào cùng những ảo tưởng về nhận thức (tôi sẽ dẫn một show truyền hình mô tả những ảo tưởng kiểu này vào năm 2018), chúng ta cũng vẫn tưởng tượng rằng mình là người hợp lý, logic và có đầu óc.
            Nhưng hãy dành ra chút thời gian. Thử tưởng tượng chúng ta đã hiểu quá trình ra quyết định và các giá trị đi kèm. Làm sao chúng ta có thể tự động hóa những thứ đó trên đời này đây? Nếu chúng ta định đưa con robot lên đường cao tốc hay ra chiến trường để ra quyết định cho chúng ta, làm sao chúng ta giải thích cho con robot biết phải làm những gì như thế nào theo đúng cách ta muốn nó làm?
           
            Hãy suy nghĩ theo cách này. Hãy tưởng tượng việc cố gắng giải thích cho ai đó chưa bao giờ đặt chân vào nhà hàng toàn bộ những thứ phải làm.
            “Trước tiên, bạn sẽ đi vào, có bàn ở mọi nơi. Bạn có thể nhìn hoặc không nhìn thấy bếp. Không sao, đừng ngồi trong bếp. Hãy ngồi vào một bàn. Nhưng đừng ngồi vào bàn trừ khi nó đã được dọn sạch, và có một con dao và một cái dĩa cho bạn. Một số nhà hàng không làm thế - cái bàn có thể để trống. Hãy đợi ở cửa ra vào vài phút xem liệu ai đó trong nhà hàng muốn bạn ngồi vào chỗ nào đó đặc biệt không. Được rồi, giờ hãy ngồi xuống.”
            Mark Riedl đang cố giải thích loại việc này. Và không chỉ giao thức nhà hàng. Anh đang cố dạy mọi dạng hành vi của con người cho robot. Nhưng mọi qui luật tương tác của con người đều có ngoại lệ tinh tế, và các nhánh của cây quyết định cứ thế nở ra vô tận. Riedl nói: “Tại một số nhà hàng, chúng ta phải xếp hàng. Nhưng trong một số nền văn hóa khác, qui tắc xếp hàng đợi rất khác nhau, và người ta còn cắt hàng hay chen lấn nữa.”
            Chẳng có quyển hướng dẫn nào cho tương tác của con người. Riedl thở dài: “Nếu bạn muốn học các qui tắc xã hội, thì bạn phải đi học nó ở đâu đó.”
            Riedl bắt đầu sự nghiệp học thuật của mình năm 2008, thử tạo các trò chơi máy tính có thể tự viết lại cốt truyện của chính chúng khi câu chuyện tiến triển. “Tôi có một cố vấn ở bang Bắc Carolina, ông ấy đang thử dùng AI để điều khiển các trò chơi máy tính. Ông muốn thoát khỏi các cốt truyện thông thường, giống như kiểu bạn đột nhiên muốn tham gia hội hư hỏng. Nhưng để làm điều đó, bạn phải xây dựng một chương trình tạo ra câu chuyện.” Đây là nơi nhiều nhà nghiên cứu đã bế tắc. Các máy tính có thể nối các điểm cốt truyện phác thảo theo thứ tự ngẫu nhiên, nhưng chúng không biết làm sao tập hợp một cốt truyện hợp lý với mong đợi của con người.
            Đó là lúc Riedl phát hiện ra nguồn tài nguyên tri thức đơn giản của con người: các câu chuyện. Anh nói: “Khả năng nhặt lấy một câu chuyện và hấp thụ các bài học của nó là một trong các tài năng vĩ đại của chúng ta.” Vì thế, anh bắt đầu làm việc với ý tưởng sử dụng các câu chuyện để dạy robot những gì được kỳ vọng từ xã hội loài người. Nói đơn giản, trong một nhà hàng.
            Riedl nói: “Một trong các hệ thống đã hiểu câu chuyện của tôi, chúng tôi đã làm toán, các lựa chọn phân nhánh lên tới hàng ngàn. Nhưng trong một nhà hàng, tương tác của con người rất nhỏ, cứng nhắc và đồng thuận.”
            Năm 2016, Riedl và đồng nghiệp Brent Harrison, cùng nhau làm việc tại Học viện Công Nghệ Georgia, đã xuất bản bài viết tiêu đề “Học từ các câu chuyện: Sử dụng các đoạn tường thuật cho đám đông để đào tạo các đối tượng ảo.” Trong đó, họ giới thiệu với thế giới về Quixote, một mẩu phần mềm có thể nghe các câu chuyện từ con người và đào ra các qui luật có thể dạy được từ đó. Trong trường hợp này họ cố gắng dạy Quixote những qui tắc thô sơ để điều khiển một vụ cướp nhà băng.
            Kịch bản vụ cướp gồm ba nhân vật: một nhân viên ngân hàng, một tên cướp và một sĩ quan cảnh sát. Mỗi người chỉ có một số hàng động có sẵn, từ việc ấn chuông báo động tới vung khẩu súng, thế nhưng lựa chọn phân nhánh đã lên đến hàng triệu. Thoạt tiên, Quixote không có ý tưởng gì về cách viết cốt truyện. Nó chỉ nối các điểm cốt truyện lại với nhau cho giao dịch dễ dàng nhất. Cảnh sát đơn giản đứng một bên nên tên cướp có thể rời đi không bị cản trở, hoặc tên cướp lấy tiền rồi đi loanh quanh hành lang, chờ cảnh sát tới. Vì thế Harrison và Riedl đã thuê người dùng trực tuyến viết các mô tả ngắn gọn về một vụ cướp ngân hàng điển hình bằng tiếng Anh đơn giản mà Quixote có thể đọc được.
            Quixote ngay sau đó đã viết kịch bản các vụ cướp mà một nhà viết kịch Hollywood có thể nhận ra: tên cướp rút súng, nhân viên ngân hàng nhấn nút báo động, cảnh sát tới, cuộc săn đuổi bắt đầu. Rất ổn. Việc này đã chứng minh cho quan niệm của Riedl và Harrison: những câu chuyện có thể dạy robot những gì con người thường làm.
            Công việc của họ được quân đội tài trợ chủ yếu: Phòng Nghiên Cứu Hải Quân và DARPA, cả hai đều đã đầu tư rất sâu vào những ý tưởng về trợ giúp tự động, máy bay không người lái dưới sự điều khiển của con người và các loại thuộc trí tuệ nhân tạo khác. Nói chung quân đội đã chi hàng tỷ đô cho những dự án thế này.
            Các nhân viên ONR giải thích mối quan tâm của họ với công việc của Riedl theo hai cách. Một là, họ quan tâm tới việc khiến người không có kỹ năng cũng có thể làm được dễ dàng hơn. Riedl nói: “Giả sử họ muốn xây dựng hệ thống mô phỏng xã hội của một thành phố với nền văn hóa ngoại lai, nhưng vấn đề chính là các chuyên gia không phải đều là các lập trình viên. Làm sao bạn dạy cho chương trình chi tiết về nơi chốn, nhân vật, nông dân trên cánh đồng, những gì họ muốn làm khi bạn xuất hiện?”
            Mối quan tâm khác của quân đội đi kèm với hệ thống robot. “Chúng tôi có khuynh hướng cho rằng robot sẽ hành động như con người, và khi không đạt kết quả như vậy chúng tôi sẽ rất ngạc nhiên.” Trong tương lai khi robot mang hành trang binh lính, hoặc lái xe dã chiến, người lính cần có khả năng dự đoán những gì con robot sẽ làm tiếp theo. Nếu họ không thể, chính kiểu muốn con người hóa bất cứ thứ gì giống con người mơ hồ sẽ đẩy chúng ta vào rắc rối. Chúng ta không nên kỳ vọng robot sẽ hành xử theo cách của con người, nhưng chúng ta đã làm vậy. Trong một thông cáo về công việc của mình với Harrison, Riedl nói với phóng viên: “chúng tôi tin việc hiểu câu chuyện của robot có thể loại bỏ được hành vi như bệnh tâm thần.” Kể những câu chuyện của con người cho robot, nói cách khác, có thể giúp chúng hành động giống con người hơn.

            Trở lại vấn đề sâu sắc hơn mà Riedl, Harrison và những người khác đang đối mặt khi cố gắng dạy robot ra quyết định như người: chúng ta hoàn toàn không biết tại sao chúng ta lại ra những quyết định như ta đã làm.
            Chúng ta biết mình muốn thế nào. Một phiên bản của mình nhưng có đạo đức, vững vàng, hợp lý, sáng tạo, có đầu óc. Chỉ vài thập kỷ trước, nghiên cứu về ý thức đã chỉ cho chúng ta thấy, chúng ta có khuynh hướng là một loại người khác.
            Trong khi hầu hết các xã hội của loài người đều có một số cơ chế đánh giá tính đúng đắn của các hành vi, các cơ chế đó chỉ hoạt động sau khi đã hành động.
            Nếu một đứa trẻ bất ngờ đi vào đường xe tải đang chạy, tài xế xe tải phải đối mặt với các quyết định phân nhánh tức thời và bất khả thi. Cứ đi tiếp, có lẽ sẽ giết chết đứa bé? Lái xe rẽ sang hướng khác, chiếc xe sẽ nhanh chóng gặp một vụ tắc đường và có thể làm hại vô số người khác? Hoặc lái xe theo hướng khác nữa, đưa xe lao xuống vách đá?
            Một khi tài xế đã quyết định xong và thảm cảnh kinh hoàng kết thúc, xe cứu thương tới đưa người chết và bị thương đi, hồ sơ cảnh sát sẽ được cho vào file lưu trữ, ai đó sẽ đánh giá lựa chọn của tài xế.
            Tài xế sẽ nói: “Đó là bản năng. Tôi không biết tại sao tôi quyết định làm những gì tôi đã làm.”  Thế là cuộc điều tra xem xét đến các vấn đề về sự tỉnh táo, tình trạng toàn vẹn về cơ khí của chiếc xe tải, bố mẹ của đứa trẻ. Cuối cùng, cơ chế đó đưa ra vài kết luận xác định lỗi và bồi thường, các chính sách có thể ngăn chặn loại bi kịch này lặp lại.
           
            Với các hệ thống tự động hóa, loại đánh giá kiểu đó phải diễn ra trước. Một phương tiện tự động sẽ chỉ làm những gì được lập trình. Nó phải được dạy trước là cần đi thẳng và cứ cày qua con gà trên đường, nhưng hãy tránh xa một đứa trẻ. Nó phải được lập trình trước để chọn vách đá chứ không phải một vụ tắc nghẽn giao thông gần đó.
            Vậy thì làm sao có đủ chuyện để dạy cho một hệ thống robot cách ra quyết định hoàn hảo mọi lúc? Riedl nói: “Chúng tôi không thể viết các giá trị theo cách logic, dễ hiểu.” Đây là thử thách to lớn với anh và Harrison. “Chúng ta đang yêu cầu các hệ thống tự động phải hoàn hảo, nhưng bản thân chúng ta vẫn chấp nhận lỗi lầm của con người.” Anh suy nghĩ một lúc rồi nói tiếp: “Tôi không có câu trả lời cho điều đó.”
Jacob Ward

Không có nhận xét nào:

Đăng nhận xét

Chuẩn bị cho một khóa thiền Vipassana 10 ngày như thế nào?

Vì liên tục có nhiều bạn hỏi về các khóa thiền Vipassana mà mình thi thoảng tham gia, để không phải giải thích lại nhiều lần, mình viết các ...