Guidance Systems – 2 (Jacob
Ward): Robot sát thủ và bài toán đạo đức của tự động hóa
Một
khi đã ngồi vào trong hệ thống mô phỏng bay, bạn sẽ dần dần bị hoa mắt.
“Hệ thống mô phỏng
bay – Flight simulator” – không làm công việc xứng đáng với máy móc, nhưng những
từ ngữ này lại là những từ chính xác nhất để mô tả nó. Có các hệ thống mô phỏng
bằng phần mềm cho bạn thấy việc lái máy bay đang diễn ra thế nào. Và có những hệ
thống mô phỏng vật lý sẽ va vào bạn nhờ một cần cẩu nhỏ. Nhưng hệ thống kiểu
này không giống thế. Đây là toàn bộ kinh nghiệm mà tôi sẽ rửa mắt cho bạn.
Tôi
đã ở trong một khoang chứa như cái thùng màu trắng không cửa sổ, chỉ đủ rộng để
đại diện cho không gian bên trong một máy bay phản lực chiến đấu. Cái khoang chứa
được gắn bên phải của nó với một khớp nối khổng lồ để có thể quay theo bất kỳ
hướng nào. Và toàn bộ thứ đó được treo lên đầu một máy ly tâm dài khoảng 100
foot (cỡ 30,5 mét) có thể lấp kín căn phòng có kích cỡ như một xưởng máy bay
thu nhỏ.
Chiếc
máy thay thế này có thể tạo ra bất kỳ cảm giác nào mà một chiếc máy bay có thể
tạo ra – tất nhiên là nhiều như bạn hay tôi từng có đủ ý thức trải nghiệm. Mô
phỏng kiểu này có nghĩa là, trong khi tôi đang quay vòng tròn chẳng hạn, hình ảnh
trên màn hình được hiển thị để đánh lừa bộ não khiến não tôi nghĩ rằng tôi đang
du ngoạn theo đường thẳng giữa bầu trời bao la. Tôi đã từng tham gia trò này
qua cái mà các nhà sản xuất gọi là thử nghiệm gia tốc nhỏ. Khi các hình ảnh
trên màn hình nói với tôi rằng tôi đang phóng như bay lên trên hướng về phía mặt
trời tưởng tượng, chiếc máy ly tâm phải quay nhanh hơn, nhanh tới mức gấp sáu lần
lực hấp dẫn là điều tôi từng trải nghiệm, đủ để nghiền nát gương mặt và thân
mình tôi trên ghế ngồi. Thật đáng sợ và cực kỳ không thoải mái. Quả táo của
Adam thường nhô ra trước cổ họng tôi, lúc đó bị ép chặt vào phía sau cổ họng
khi cái máy rên lên ở tốc độ ngày một cao. Nhưng điều đó chỉ ra rằng loại lực G
này (theo trục trước – sau của cơ thể), loại lực có thể tạo ra những bức ảnh khủng
khiếp về các phi công đẹp trai điển hình bị vặn thành yêu quái, thực ra lại là
loại lực dễ xử lý nhất. Chỉ cần hệ thống mô phỏng kia cho bạn trải nghiệm lực G
giảm dần từ trên xuống dưới, nó sẽ nén cơ thể về phía bàn chân, và mọi thứ thế
là đi tong.
Khi
cái khoang chứa quay được khoảng nửa vòng, chân tôi lúc này đã ở rất xa ngoài
vòng quay của máy ly tâm, giả như cảm giác vẫn còn rất cứng cỏi tự tin, tôi cố
làm theo những gì người ta bảo: ép mông, ấn bàn chân xuống bàn đạp, tất cả nhằm
gắng hết sức giữ máu đi lên trên eo. Nhưng vô ích. Ở mức lực bằng 3,5G não tôi
đã mất khả năng lưu thông. Tôi bắt đầu nhìn thấy nhiều màu sắc, rồi thấy một đường
hầm tối đen dần dần hình thành tại ranh giới tầm nhìn, và ngay sau đó tôi bị
mù. Tôi hổn hển nói “Tôi không thể nhìn thấy gì.” Người vận hành phải giảm tốc
độ chiếc máy ngay trước khi tôi mất ý thức.
Tôi
mất khoảng 1 giờ đồng hồ nằm trên ghế gấp để phục hồi lại. Không chỉ mê man bất
tỉnh như thế, xung đột giữa những gì tai trong của tôi trải qua (chuyển động
quay) và những gì mắt tôi được cho nhìn thấy trong khoang (hoạt cảnh mô phỏng
bay) là giao tiếp sai lạc cổ điển tạo ra chứng say khi chuyển động (như say tàu
xe).
Nhưng
cuối cùng tôi đã qua khỏi, và ngồi xuống cùng với vị bác sĩ quân y để tìm hiểu
xem tại sao tôi thất bại. Ông giải thích rằng việc ngất xỉu của tôi là sự gián
đoạn vòng thủy tĩnh – một kết nối bằng chất lỏng giữa tim và não giúp bạn có ý
thức. Khi giảm các lực G kiểu này từ trên xuống đã phá vỡ kết nối đó, vì nó kéo
máu dồn xuống chân, bạn sẽ bị mê man bất tỉnh.
Ông
cũng nói cho tôi biết công ty của ông bán hệ thống mô phỏng này cho các lực lượng
không quân đồng minh trên toàn thế giới, và rất thường thì các lực lượng này sẽ
lại kết hợp hệ thống mô phỏng bay của họ với một không gian tưởng tượng khổng lồ,
đưa vào đó những phi công giỏi nhất, và những cuộc không chiến. Nó giống như giải
đấu trò chơi điện tử cao cấp, trong đó ói mửa và vô thức là một phần của món hời.
Tôi
hỏi: “Thế sao? Ai thắng?”
Ông
ấy trả lời: “Người Bahrain”.
“Tại
sao vậy? Tại sao họ lại giỏi đến vậy?”
Ông
ấy bảo, có vẻ xấu hổ: “Ồ, thực ra không phải vì họ giỏi. Đó là vì họ thường
là những người nhỏ con nhất. Vòng thủy tĩnh của họ ngắn nhất, vì thế rất khó bị
phá vỡ. Họ có thể biến nó trở nên chặt hơn các đội khác.”
Điều
đó cho thấy hệ thống này quyết định kết quả cuộc chiến không phải là vũ khí, mặt
bằng bay hay ngoại thất bọc thép. Chính là khuynh hướng mang yếu tố con người dễ
mất ý thức khi đi sai hướng. Sự khác biệt giữa thắng và thua trong việc kiểm
soát chiếc máy bay chiến đấu giá 90 triệu đô tính theo tổng số những phi công
có tim và não ở vị trí gần nhau nhất.
Đó
là lý do tại sao cựu Bộ Trưởng Hải Quân Ray Mabus đã nói một câu nổi tiếng về
máy bay chiến đấu F-35, mẫu mới nhất được chế tạo, rằng nó “nên và hầu như
chắc chắn sẽ là chiếc máy bay chiến đấu dùng để tấn công cuối cùng mà Bộ Hải
quân Hoa Kỳ sẽ mua hoặc bay.” Phi công chính là điểm yếu lớn nhất của chiếc
máy bay này.
Đó
cũng là lý do tại sao các quân đội trên thế giới đang tự động hóa mọi thứ từ
nhiệm vụ canh gác tới súng phòng không hay chiến tranh mạng. Con người không hợp
với công việc này.
Đây
là lý do Tổ chức Theo dõi Nhân Quyền (Human Rights Watch) và giờ là một nhóm
các lãnh đạo khối doanh nghiệp dùng robot và AI do Elon Musk cầm đầu đã yêu cầu
Liên Hợp Quốc tạo ra một loại công ước Geneva nhằm cấm dùng robot chế tạo vũ
khí. Những người lính bằng xương bằng thịt với các yếu đuối và hạn chế của con
người có nguy cơ sắp sửa bị thay thế bằng những máy móc không có các điểm yếu
trên.
Chúng
ta đang sử dụng công nghệ ra quyết định mà đến cả loài người chúng ta cũng
không thể đồng ý ngay cả khi tự ta làm. Trong quá trình đó, chúng ta cũng đang
thay đổi cách chúng ta ra những quyết định kiểu này. Công nghệ quân sự có thể
đang lập trình lại thái độ của chúng ta với chiến tranh.
Hãy
xem xét cách công nghệ đã định hình thói quen của chúng ta ngay cả khi chúng ta
không cố gắng giết lẫn nhau. Khi tôi hạ cánh xuống một thành phố mới và phải
lái xe từ sân bay vào thị trấn, Google Maps cho tôi đầy đủ lựa chọn – đây là xa
lộ, kia là đường khác, kia nữa là đường nhỏ. Tôi cẩn thận lựa chọn. Sau đó khi
đang lái xe, tôi bắt đầu nghĩ về thực tế chắc chắn có hàng tá cách khác để tới
đó. Nhưng hệ thống định vị chúng ta đang xài đã lọc vô số lựa chọn bằng một câu
hỏi nhiều đáp án, và chúng ta bị cuốn theo với suy nghĩ rằng chỉ có ba cách vào
thị trấn. Nó khiến ta cảm thấy như thể chúng ta đang có nhiều lựa chọn hơn, dù
thực tế chúng ta chỉ có ít hơn rất nhiều.
Các
hệ thống quân sự cũng vậy. Công ty Boeing cùng với hầu hết các đối thủ cạnh
tranh của mình đã đưa ra các sản phẩm “lập kế hoạch nhiệm vụ - mission planning”
nhằm ra các quyết định quân sự giống như Google đã làm cho chuyến đi của bạn. (Chú
ý Mission Planning là một sản phẩm của Boeing từ năm 1975). Các hệ thống kiểu
này thu nạp mọi phức tạp và mức độ khẩn cấp của kế hoạch quân sự và cố gắng hết
sức để giảm thiểu các lựa chọn. Dù có cần điều quân vào ra chiến trường hay
không, lên kế hoạch nã tên lửa vào một vị trí, hay triển khai binh bảo vệ thị
trấn, phần mềm sẽ thu nạp tất cả các biến số mở vào trong một trình đơn tiện lợi.
Bạn có thể chọn một tuyến đường đẹp từ danh sách Google cung cấp cho. Một chỉ
huy hải quân có thể chọn một đường bay đi qua núi từ danh sách Boeing cung cấp
cho họ.
Vào
năm 2013, tại Fort Benning, Georgia, Quân đội đã mời một nhóm các nhà thầu quân
sự liên quan tới robot để khoe thành quả tuyệt nhất của họ tại một căn cứ vũ
khí di động tự định hướng – cơ bản thì đó là một con robot trang bị súng. Đó là
một trong những lần đầu tiên Hoa Kỳ cho trình diễn công khai ý định tự động hóa
các hoạt động trong chiến tranh. Nhiều xe tăng nhỏ lăn bánh bên ngoài dàn trận
khai hỏa, người vận hành chỉ đứng quanh đâu đó ở khoảng cách an toàn, mỗi robot
được phép là đối tượng cuối cùng đi lên phía trước để bắn, chúng bắn lên một sườn
đồi đầy các mục tiêu.
Hàng
tiến lên cuối cùng để bắn này là sự bảo đảm số một mà phát ngôn viên quân đội đề
cập tới khi được hỏi về đạo đức khi vũ trang bằng robot. Thuật ngữ kỹ thuật là “con người trong vòng lặp – human in the
loop” – được lập luận rằng: con người sẽ luôn luôn được tham gia vào việc
quyết định sử dụng vũ khí chết người. Nhưng ngay cả khi nếu đó là sự thật, thì
vai trò của con người vẫn rất khác khi robot đang cầm súng. Thay vì kích hoạt bắn,
hay thậm chí bảo một con robot hãy kéo cò, con người bị đẩy xuống vị thế ít quyền
lực hơn nhiều. Robot chuẩn bị mọi thứ từ tinh thần đến hậu cần, còn lựa chọn của
con người bị giảm xuống chỉ còn “tiếp tục” hoặc “đứng yên”.
Như
vậy, con người đã ra khỏi vòng lặp, vì ngay khi các cơ quan trong cơ thể người
không còn được tin tưởng có thể giữ con người khỏi bị ngất xỉu khi kiểm soát
máy bay chiến đấu, các giác quan và thời gian phản ứng của con người không đủ
nhanh để xử lý các loại tình huống cuộc chiến hiện nay cần tới. Theo Peter W.
Singer, tác giả cuốn Wired for War và chiến lược gia tại
Tổ chức New America Foundation, ông nói với tôi trong podcast tập gần đây của
tôi Complicated,
rằng nhiều hệ thống đã tồn tại đang lôi con người hoàn toàn ra khỏi vòng lặp.
Hệ
thống SeaRAM do Raytheon xây dựng, là một hệ thống phòng vệ tàu lớp cuối để
đánh bật tên lửa khỏi vùng trời. Con người không có ích gì trong vai trò này,
vì vài giây giữa phát hiện và hứng tác động đơn giản là không đủ thời gian để
tham khảo ý kiến của người điều khiển, hoặc ít nhiều yêu cầu người đó theo dõi
hay kích hoạt vũ khí. Vì vậy, con tàu phải tự bảo vệ nó bằng một loại pin tự động
và dàn tên lửa của riêng nó. Con tàu tự phát hiện, theo dõi và bắn vào các mục
tiêu nhắm tới nó mà không cần bất cứ người nào tham gia. Khẩu hiệu của công ty
cho hệ thống này là “Bảo vệ tàu tiên tiến”.
Ở
Israel, hệ thống Iron Dome đã hoạt động được vài năm, nó chặn các tên lửa tự chế
bắn tới từ lãnh thổ Palestine. Đây lại là trường hợp con người vô dụng. Rocket nói
chung quá nhanh để con người có thể đáp trả, vì thế hệ thống tự động này đang xử
lý nó cho chúng ta.
Cuối
cùng, chiến tranh mạng còn làm giảm thời gian phản ứng xa hơn nữa, từ vài giây
tới vài mili-giây, nó đòi hỏi toàn bộ quyền hạn đối với các hệ thống tự động
phát hiện và đáp trả các cuộc tấn công trong không gian ảo. Con người thậm chí
còn không thể bắt đầu nhập cuộc trong vòng lặp này cho đến khi cuộc tấn công và
đáp trả kết thúc một lúc lâu sau.
Đúng
vào khoảng thời gian tôi bắt đầu làm quen với các loại trạng thái khi bị đẩy
kéo mê man trong hệ thống mô phỏng bay kia, tôi đã làm một chương trình truyền
hình về những chiếc máy bay bí mật hàng đầu và bị kéo tới giải pháp cho vấn đề
ngất xỉu của phi công: chiếc X-47B. Được Northrop Grumman chế tạo tại cơ sở
quân sự có tên Nhà máy 42 ở Palmdale, California, chỉ cách Los Angeles vài dãy
núi, đây là chiếc đầu tiên trong thế hệ máy bay chiến đấu không người lái đang
được nhiều chi nhánh trong quân đội thử nghiệm. Thật khó khăn để mô tả. Toàn bộ
mọi bản năng của tôi ở thế kỷ 20 về máy bay dẫn tôi tới hy vọng ai đó đang ngồi
bên trong, thế nên bối rối làm sao khi chỉ thấy một cái cửa đen lớn lẽ ra nên ở
trước buồng lái, và những thanh nhôm rào khoảng trống lớn nơi bạn hy vọng phi
công đang vẫy tay với bạn. Cái đó thực sự không có khuôn mặt, không có cảm xúc.
Thế nhưng nó đã cất cánh và hạ cánh thành công trên tàu sân bay mà không cần yếu
tố con người nào tham gia – một trong những việc khó khăn nhất mà một phi công
lái máy bay chiến đấu bị yêu cầu phải làm được.
Nhiều
suy nghĩ đã đi qua tâm trí tôi dù đang đứng dưới cái nóng như đổ lửa, nhìn vào
tương lai của chiến tranh. Chỉ có một điều, không có con người có nghĩa là
không phi công nào sẽ phải bị đạn bắn, bị bỏng hoặc cần giải cứu. Có lẽ đó là
điều tốt. Nhưng tôi cũng biết rằng, chi phí bỏ ra chế tạo đắt đỏ như thế, nó chỉ
là chiếc máy dùng một lần rồi bỏ, nhưng có thể biến hóa cứng rắn hơn bất kỳ phi
công bằng xương bằng thịt nào có thể. Chính hệ thống thuận tiện kinh khủng này
sẽ làm cho chiến tranh trở nên dễ dàng hơn bao giờ hết về mặt hậu cần, đạo đức
và chính trị. Chúng ta đã thiết kế loại bỏ sự yếu đuối của con người khỏi kiểu
hệ thống tự động này. Nhưng làm sao chúng ta có thể thiết kế để đưa đạo đức con
người vào đó?
Chúng
ta dạy robot hiểu các giá trị của chúng ta như thế nào?
Tự
động hóa các thao tác cơ bản của con người – nấu ăn, lái xe, giết người – đang được
tiến hành. Quân đội Hoa Kỳ đang tích cực theo đuổi tự động hóa trong hầu hết mọi
hoạt động, từ chương trình Loyal Wingman của Không Lực Hoa Kỳ nhằm tích hợp các
phi công bằng xương bằng thịt với máy bay tự động, tới chương trình Science of
Autonomy của Phòng Nghiên Cứu Hải Quân đang theo đuổi những mục tiêu khác nhằm
giảm “sự thuần hóa và các yêu cầu giao tiếp khác”.
Khó
khăn là tự động hóa các tác vụ trên không chỉ là câu hỏi về lập trình tập lệnh.
Đó còn là câu hỏi về lập trình tập giá trị. Rõ ràng khi có đủ thời gian và tiền
bạc, chúng ta có thể làm những cái như trước đây. Không rõ ràng là chúng ta liệu
có biết cách làm thế hệ sau không. Lúc này nước Mỹ vẫn không ký bất kỳ hiệp ước
nào về quản lý việc sử dụng vũ khí tự động hóa.
Điều
đó không có nghĩa là đạo đức của các hệ thống kiểu này không được thảo luận.
Ngay từ năm 2008, một văn bản về đạo đức của tự động hóa trong quân đội từ
CalPoly do ONR hỗ trợ tiền đã lo ngại rằng các chiến binh bằng robot có thể hạ
thấp “ngưỡng đi vào các cuộc xung đột và chiến tranh, vì mạng sống của quân
lính Mỹ sẽ ít bị đe dọa hơn.”
Nhưng
vấn đề sâu sắc hơn là, chúng ta hy vọng tạo ra robot thay thế cho chính mình
khi thực ra chúng ta còn chưa hiểu một cách căn bản chúng ta là ai. Các nhà
kinh tế học, tâm lý học, thần kinh học đều nhận ra rằng hiện thực bạn hay tôi
trải qua chưa chắc đã là thật. Có thể nhầm lẫn khi giả định vô thức, ký ức
không chính xác và kích thích bên ngoài ào đến tạo ra trạng thái lộn xộn như
các máy bay trong một sân bay. Và dù chúng ta liên tục rơi vào cùng những ảo tưởng
về nhận thức (tôi sẽ dẫn một show truyền hình mô tả những ảo tưởng kiểu này vào
năm 2018), chúng ta cũng vẫn tưởng tượng rằng mình là người hợp lý, logic và có
đầu óc.
Nhưng
hãy dành ra chút thời gian. Thử tưởng tượng chúng ta đã hiểu quá trình ra quyết
định và các giá trị đi kèm. Làm sao chúng ta có thể tự động hóa những thứ đó
trên đời này đây? Nếu chúng ta định đưa con robot lên đường cao tốc hay ra chiến
trường để ra quyết định cho chúng ta, làm sao chúng ta giải thích cho con robot
biết phải làm những gì như thế nào theo đúng cách ta muốn nó làm?
Hãy
suy nghĩ theo cách này. Hãy tưởng tượng việc cố gắng giải thích cho ai đó chưa
bao giờ đặt chân vào nhà hàng toàn bộ những thứ phải làm.
“Trước
tiên, bạn sẽ đi vào, có bàn ở mọi nơi. Bạn có thể nhìn hoặc không nhìn thấy bếp.
Không sao, đừng ngồi trong bếp. Hãy ngồi vào một bàn. Nhưng đừng ngồi vào bàn
trừ khi nó đã được dọn sạch, và có một con dao và một cái dĩa cho bạn. Một số
nhà hàng không làm thế - cái bàn có thể để trống. Hãy đợi ở cửa ra vào vài phút
xem liệu ai đó trong nhà hàng muốn bạn ngồi vào chỗ nào đó đặc biệt không. Được
rồi, giờ hãy ngồi xuống.”
Mark
Riedl đang cố giải thích loại việc này. Và không chỉ giao thức nhà hàng. Anh
đang cố dạy mọi dạng hành vi của con người cho robot. Nhưng mọi qui luật tương
tác của con người đều có ngoại lệ tinh tế, và các nhánh của cây quyết định cứ
thế nở ra vô tận. Riedl nói: “Tại một số nhà hàng, chúng ta phải xếp hàng. Nhưng
trong một số nền văn hóa khác, qui tắc xếp hàng đợi rất khác nhau, và người ta
còn cắt hàng hay chen lấn nữa.”
Chẳng
có quyển hướng dẫn nào cho tương tác của con người. Riedl thở dài: “Nếu bạn muốn
học các qui tắc xã hội, thì bạn phải đi học nó ở đâu đó.”
Riedl
bắt đầu sự nghiệp học thuật của mình năm 2008, thử tạo các trò chơi máy tính có
thể tự viết lại cốt truyện của chính chúng khi câu chuyện tiến triển. “Tôi có một
cố vấn ở bang Bắc Carolina, ông ấy đang thử dùng AI để điều khiển các trò chơi
máy tính. Ông muốn thoát khỏi các cốt truyện thông thường, giống như kiểu bạn đột
nhiên muốn tham gia hội hư hỏng. Nhưng để làm điều đó, bạn phải xây dựng một
chương trình tạo ra câu chuyện.” Đây là nơi nhiều nhà nghiên cứu đã bế tắc. Các
máy tính có thể nối các điểm cốt truyện phác thảo theo thứ tự ngẫu nhiên, nhưng
chúng không biết làm sao tập hợp một cốt truyện hợp lý với mong đợi của con người.
Đó
là lúc Riedl phát hiện ra nguồn tài nguyên tri thức đơn giản của con người: các
câu chuyện. Anh nói: “Khả năng nhặt lấy một câu chuyện và hấp thụ các bài học của
nó là một trong các tài năng vĩ đại của chúng ta.” Vì thế, anh bắt đầu làm việc
với ý tưởng sử dụng các câu chuyện để dạy robot những gì được kỳ vọng từ xã hội
loài người. Nói đơn giản, trong một nhà hàng.
Riedl
nói: “Một trong các hệ thống đã hiểu câu chuyện của tôi, chúng tôi đã làm toán,
các lựa chọn phân nhánh lên tới hàng ngàn. Nhưng trong một nhà hàng, tương tác
của con người rất nhỏ, cứng nhắc và đồng thuận.”
Năm
2016, Riedl và đồng nghiệp Brent Harrison, cùng nhau làm việc tại Học viện Công
Nghệ Georgia, đã xuất bản bài viết tiêu đề “Học từ các câu chuyện: Sử dụng
các đoạn tường thuật cho đám đông để đào tạo các đối tượng ảo.” Trong
đó, họ giới thiệu với thế giới về Quixote, một mẩu phần mềm có thể nghe các câu
chuyện từ con người và đào ra các qui luật có thể dạy được từ đó. Trong trường
hợp này họ cố gắng dạy Quixote những qui tắc thô sơ để điều khiển một vụ cướp
nhà băng.
Kịch
bản vụ cướp gồm ba nhân vật: một nhân viên ngân hàng, một tên cướp và một sĩ
quan cảnh sát. Mỗi người chỉ có một số hàng động có sẵn, từ việc ấn chuông báo
động tới vung khẩu súng, thế nhưng lựa chọn phân nhánh đã lên đến hàng triệu. Thoạt
tiên, Quixote không có ý tưởng gì về cách viết cốt truyện. Nó chỉ nối các điểm
cốt truyện lại với nhau cho giao dịch dễ dàng nhất. Cảnh sát đơn giản đứng một
bên nên tên cướp có thể rời đi không bị cản trở, hoặc tên cướp lấy tiền rồi đi
loanh quanh hành lang, chờ cảnh sát tới. Vì thế Harrison và Riedl đã thuê người
dùng trực tuyến viết các mô tả ngắn gọn về một vụ cướp ngân hàng điển hình bằng
tiếng Anh đơn giản mà Quixote có thể đọc được.
Quixote
ngay sau đó đã viết kịch bản các vụ cướp mà một nhà viết kịch Hollywood có thể
nhận ra: tên cướp rút súng, nhân viên ngân hàng nhấn nút báo động, cảnh sát tới,
cuộc săn đuổi bắt đầu. Rất ổn. Việc này đã chứng minh cho quan niệm của Riedl
và Harrison: những câu chuyện có thể dạy robot những gì con người thường làm.
Công
việc của họ được quân đội tài trợ chủ yếu: Phòng Nghiên Cứu Hải Quân và DARPA,
cả hai đều đã đầu tư rất sâu vào những ý tưởng về trợ giúp tự động, máy bay
không người lái dưới sự điều khiển của con người và các loại thuộc trí tuệ nhân
tạo khác. Nói chung quân đội đã chi hàng tỷ đô cho những dự án thế này.
Các
nhân viên ONR giải thích mối quan tâm của họ với công việc của Riedl theo hai
cách. Một là, họ quan tâm tới việc khiến người không có kỹ năng cũng có thể làm
được dễ dàng hơn. Riedl nói: “Giả sử họ muốn xây dựng hệ thống mô phỏng xã hội
của một thành phố với nền văn hóa ngoại lai, nhưng vấn đề chính là các chuyên
gia không phải đều là các lập trình viên. Làm sao bạn dạy cho chương trình chi
tiết về nơi chốn, nhân vật, nông dân trên cánh đồng, những gì họ muốn làm khi bạn
xuất hiện?”
Mối
quan tâm khác của quân đội đi kèm với hệ thống robot. “Chúng tôi có khuynh hướng
cho rằng robot sẽ hành động như con người, và khi không đạt kết quả như vậy
chúng tôi sẽ rất ngạc nhiên.” Trong tương lai khi robot mang hành trang binh
lính, hoặc lái xe dã chiến, người lính cần có khả năng dự đoán những gì con
robot sẽ làm tiếp theo. Nếu họ không thể, chính kiểu muốn con người hóa bất cứ
thứ gì giống con người mơ hồ sẽ đẩy chúng ta vào rắc rối. Chúng ta không nên kỳ
vọng robot sẽ hành xử theo cách của con người, nhưng chúng ta đã làm vậy. Trong
một thông cáo về công việc của mình với Harrison, Riedl nói với phóng viên: “chúng
tôi tin việc hiểu câu chuyện của robot có thể loại bỏ được hành vi như bệnh tâm
thần.” Kể những câu chuyện của con người cho robot, nói cách khác, có thể giúp
chúng hành động giống con người hơn.
Trở
lại vấn đề sâu sắc hơn mà Riedl, Harrison và những người khác đang đối mặt khi
cố gắng dạy robot ra quyết định như người: chúng ta hoàn toàn không biết tại
sao chúng ta lại ra những quyết định như ta đã làm.
Chúng
ta biết mình muốn thế nào. Một phiên bản của mình nhưng có đạo đức, vững vàng,
hợp lý, sáng tạo, có đầu óc. Chỉ vài thập kỷ trước, nghiên cứu về ý thức đã chỉ
cho chúng ta thấy, chúng ta có khuynh hướng là một loại người khác.
Trong
khi hầu hết các xã hội của loài người đều có một số cơ chế đánh giá tính đúng đắn
của các hành vi, các cơ chế đó chỉ hoạt động sau khi đã hành động.
Nếu
một đứa trẻ bất ngờ đi vào đường xe tải đang chạy, tài xế xe tải phải đối mặt với
các quyết định phân nhánh tức thời và bất khả thi. Cứ đi tiếp, có lẽ sẽ giết chết
đứa bé? Lái xe rẽ sang hướng khác, chiếc xe sẽ nhanh chóng gặp một vụ tắc đường
và có thể làm hại vô số người khác? Hoặc lái xe theo hướng khác nữa, đưa xe lao
xuống vách đá?
Một
khi tài xế đã quyết định xong và thảm cảnh kinh hoàng kết thúc, xe cứu thương tới
đưa người chết và bị thương đi, hồ sơ cảnh sát sẽ được cho vào file lưu trữ, ai
đó sẽ đánh giá lựa chọn của tài xế.
Tài
xế sẽ nói: “Đó là bản năng. Tôi không biết tại sao tôi quyết định làm những gì
tôi đã làm.” Thế là cuộc điều tra xem
xét đến các vấn đề về sự tỉnh táo, tình trạng toàn vẹn về cơ khí của chiếc xe tải,
bố mẹ của đứa trẻ. Cuối cùng, cơ chế đó đưa ra vài kết luận xác định lỗi và bồi
thường, các chính sách có thể ngăn chặn loại bi kịch này lặp lại.
Với
các hệ thống tự động hóa, loại đánh giá kiểu đó phải diễn ra trước. Một phương
tiện tự động sẽ chỉ làm những gì được lập trình. Nó phải được dạy trước là cần
đi thẳng và cứ cày qua con gà trên đường, nhưng hãy tránh xa một đứa trẻ. Nó phải
được lập trình trước để chọn vách đá chứ không phải một vụ tắc nghẽn giao thông
gần đó.
Vậy
thì làm sao có đủ chuyện để dạy cho một hệ thống robot cách ra quyết định hoàn
hảo mọi lúc? Riedl nói: “Chúng tôi không thể viết các giá trị theo cách logic,
dễ hiểu.” Đây là thử thách to lớn với anh và Harrison. “Chúng ta đang yêu cầu
các hệ thống tự động phải hoàn hảo, nhưng bản thân chúng ta vẫn chấp nhận lỗi lầm
của con người.” Anh suy nghĩ một lúc rồi nói tiếp: “Tôi không có câu trả lời
cho điều đó.”
Jacob Ward