AI và Tương lai Điện toán:
1- Khi định luật Moore gặp AI
Nếu chúng ta muốn đạt tới AI thời
gian thực, chúng ta sẽ phải tạo ra một nền công nghiệp iPhone khác. Lớn hơn 5 lần.
Được
liên kết sản xuất với NewCo Shift
Tháng 10 năm
2016, Tesla ra thông báo về một thay đổi lớn trong gói Advanced Driver
Assistance System. Đây là sự kết hợp giữa các sensor và sức mạnh của máy tính
cho phép Tesla hoàn thành lời hứa hẹn của Elon Musk vào cuối năm 2017: “lái xe
từ bãi đỗ xe ở California tới bãi đỗ xe ở New York mà không cần điều khiển trên
toàn bộ hành trình”.
Trong số rất nhiều
thay đổi của gói sensor, có một chuyển đổi trong bộ não hệ thống. Trước đây sử
dụng bộ vi xử lý từ Mobileye (gần đây đã được Intel mua lại), hiện giờ gói này
đang xài Nvidia Drive PX 2. Tại sao thế?
Họ chỉ ra rằng,
để an toàn, các xe tự lái cần một lượng dữ liệu cực lớn từ các hệ thống sensor.
Và nếu chỉ là để tìm hiểu tất cả những gì các sensor đang nói, chiếc xe cần một
lượng xử lý chưa từng có. Một khi nó biết điều gì sắp xảy ra trong môi trường,
cần phải có thêm xử lý cần thiết để giúp chiếc xe biết phải làm gì tiếp theo.
Chuyển đổi Tesla
làm sẽ đưa ra đầu mối cho biết xử lý nhiều tới mức nào. Bộ vi xử lý Mobileye
EyeQ3 là một con chip điển hình. Nó có diện tích 42mm2 (bằng khoảng
¼ kích thước bộ vi xử lý Intel i7 hiện đại), đóng gói các transistor bằng một
qui trình sản xuất các miếng transistor cách nhau 40nm.
Con chip thay thế
từ Nvidia có kích cỡ 610mm2 và sử dụng kỹ thuật sản xuất tiên tiến,
các transistor đóng gói ở nốt 16nm. Nốt nhỏ hơn nghĩa là các transistor được
đóng gói chặt hơn 2,5 lần các transistor trong bộ vi xử lý EyeQ3. Tóm lại, con
chip Nvidia thay thế có hiệu năng được cải tiến gấp 90 lần so với con chip
Mobileye.
Ngay cả theo
tiêu chuẩn của Định luật Moore – phát biểu rằng việc đóng gói các transistor hoặc
hiệu suất của transistor sẽ tăng trung bình 60% mỗi năm – đó cũng là một bước
nhảy vọt đáng kể. Thực tế, việc chuyển đổi diễn ra tương đương với một thập kỷ
xử lý theo định luật Moore.
AI lớn hơn định luật Moore
Tóm lại, sự thay
đổi của Tesla tóm lược các loại ứng dụng giống như machine learning theo yêu cầu
để làm chúng trong tình trạng sẵn sàng xử lý. Đó không phải là những phương
tiên tự động. Đó là các thiết bị được kết nối của chúng ta, cài đặt hỗ trợ các
giao diện cá nhân, tương tác giọng nói và tăng cường thực tế ảo.
Ngoài ra, các
phương thức lập trình của chúng ta cũng đang thay đổi. Trong thế giới của
machine learning, một lượng lớn “hàng nặng” được xử lý bằng bộ não của software
developer. Các developer thông minh có nhiệm vụ đơn giản hóa và biểu diễn thế
giới theo toán học (giống như code trong phần mềm), sau đó các nhiệm vụ này sẽ
được thực hiện theo một cách xác định và im lặng.
Trong thế giới mới
của machine learning, software developer không cần lo lắng nhiều về việc dịch
những thứ trừu tượng từ thế giới bên ngoài vào code. Thay vào đó, họ xây dựng
các mô hình xác suất cần những tập dữ liệu khổng lồ để đưa ra kết quả tốt nhất.
Cái mà lập trình viên tiết kiệm được trong việc khám phá các trừu tượng toán học,
đó là việc yêu cầu máy tính làm rất nhiều tính toán (thường tới hàng tỷ phép
tính một lần).
Khi machine
learing trườn vào mọi ngóc ngách doanh nghiệp, nhu cầu xử lý trong công ty sẽ
tăng lên rõ rệt. Điều này có ảnh hưởng thế nào trong ngành công nghiệp IT, với
các nhà cung cấp phần mềm và phần cứng? Việc thực hành sẽ thay đổi thế nào? Nó
sẽ tạo ra những cơ hội nào?
Dưới đây là 3
thay đổi quan trọng:
1. Lượng
tính toán cần thiết tăng lên một cách khủng khiếp
2. Điện
toán đám mây sẽ tiếp tục phát triển, lĩnh vực bên rìa cũng nở rộ
3. Nhiều
loại chip mới sẽ xuất hiện
Yêu cầu tính toán khổng lồ
Hãy bắt đầu với
những chiếc xe tự lái. Tại một sự kiện gần đây do hãng đầu tư mạo hiểm Open Ocean
ở Luân Đôn tổ chức, người đứng đầu bộ phận sản phẩm của Five.AI – một startup về
phương tiện tự lái, đã tóm tắt các yêu cầu tính toán cần thiết cho việc tự lái
hoàn toàn.
Thách thức mấu
chốt nhân lên 2 lần. Đầu tiên, chiếc xe phải vẽ bản đồ không gian actor – state
(thực thể - trạng thái). Không gian actor – state biểu diễn môi trường bên
ngoài xung quanh chiếc xe, gồm tất cả các đối tượng, phương tiện, con người …,
và tình trạng hiện tại của chúng (đứng im, hướng, gia tốc, tốc độ, …)..
Thứ hai, chiếc
xe cần tìm cách cư xử phù hợp. Hành động tốt nhất tiếp theo của nó là gì trong
tình huống khách hàng đang cố gắng đi tới một nơi cho trước, các mối nguy hiểm
xung quanh xe ngay bây giờ cũng đã biết?
Để làm điều này,
mỗi chiếc xe cần một đống dữ liệu từ Lidar, cameras và các sensor. Lidar, viết
tắt của “Light Detection and ranging” (phát hiện đèn và xếp hàng), là một
sensor giống như radar, rất phổ biến trên nhiều xe tự lái (dù Tesla sử dụng
công nghệ khác).
Một hệ thống con
cần xử lý mối ghép sensor và các bước cảm biến trước khi các hệ thống con bổ
sung lập kế hoạch hành động tiếp theo. Toàn bộ xử lý này xảy ra trên thiết bị
(chiếc xe); ngay cả với mạng 5G, nguy cơ trễ khi khi dữ liệu theo tín hiệu dự báo
cũng là quá lớn.
Khi đưa xe vào
chế độ tự lái hoàn toàn và an toàn, toàn bộ việc xử lý cùng nhập liệu này ước
tính mất khoảng 200 teraflop xử lý, tất cả về căn bản đều cần được thực hiện
trong một giây hoặc khung thời gian nhỏ hơn.
200 teraflop là
bao nhiêu? Ngày nay có quá nhiều tiêu chuẩn: nhiều chu trình khác xa định luật
Moore. Để hoàn thành 200 nghìn tỷ phép tính dấu phẩy động trong khung thời gian
một giây tính sơ sơ cần 10 chiếc iPhone theo mẫu hiện tại. Đặc biệt là với khả
năng của thiết bị dùng Nvidia chạy trong các mẫu Tesla hiện tại. (Để công bằng,
Ngài Musk có lẽ có thể đạt được mục tiêu của mình với các GPU Nvidia hiện tại nếu
việc tối ưu hóa thuật toán cung cấp một bước thay đổi đáng kể trong hiệu suất
tính toán.)
Lượng ô tô và xe
tải sản xuất ra hằng năm khoảng 100 triệu xe trên toàn cầu. Điều này có nghĩa
là để “thông minh”, toàn bộ sản lượng xe theo các giả định này sẽ yêu cầu tương
đương với việc bổ sung khoảng 1 tỷ iPhone mỗi năm.
Sản lượng iPhone
toàn cầu hiện nay đã đạt khoảng 200 triệu chiếc vào năm 2016. Vì thế để thông
minh hóa số lượng ô tô trên, theo nghĩa thực, tương đương với việc tăng kích cỡ
hiện tại của chip bán dẫn hỗ trợ trong ngành công nghiệp iPhone lên ít nhất 5 lần.
Mối quan tâm thứ
hai là chi phí và sức tải của việc xử lý. Những chiếc xe tự lái cần có giá phải
chăng. Và vì chúng hoạt động bằng điện, bộ não của nó sẽ phải được cấp nguồn hiệu
quả. Một chiếc Tesla đốt khoảng 200 Watt giờ trên mỗi kilomet. Một chiếc GPU hiệu
năng cao nhưng nguồn cấp cũng cao có lẽ cần thêm 1,2% điện năng tiêu thụ cho tải
(Nvidia PX2 tiêu tốn 250W). Tăng công suất tải sẽ kéo theo giảm dải giá trị.
Chuyển dịch các bit đắt gần như chuyển dịch các nguyên tử
Xe tự lái có kết
cục hấp dẫn hơn trong những yêu cầu tính toán tăng lên của chúng ta. Các phương
pháp deep learning hiện đại cũng có những yêu cầu tính toán nhiều ý nghĩa. Một
mạng neuron hiện đại có hàng tá các lớp liên kết và hàng tỷ biến số, đòi hỏi phải
tăng thêm một bước trong công suất tính toán từ những gì chúng ta có hiện nay.
Như nhà phân
tích AI Libby Kinsey phác thảo trong một bài luận gần đây, hầu hết các phương
pháp đột phá trong deep learning đều sử dụng những lượng tính toán khổng lồ.
Trong bất kỳ một hệ thống machine learning nào, dạy mô hình làm sao tiên đoán
hiệu quả là bước tính toán đắt giá nhất. Bước thứ hai, áp dụng để sản xuất đầu
ra hữu ích (còn gọi là tạo ra ý nghĩa), bước này rẻ hơn nhiều. Nhưng vẫn không
phải là miễn phí.
Chỉ mới gần đây,
vì lý do này, việc nhận dạng đối tượng đã bắt đầu dịch chuyển từ đám mây sang
điện thoại di động. Tạo ra ý nghĩa một cách cục bộ sẽ cho phép machine learning
ngay trên thiết bị - nghĩa là nó sẽ nhanh hơn và đáng tin cậy hơn khi các mạng
dữ liệu chắp vá. Ví dụ hay cho điều này là khóa nhận dạng gương mặt theo sinh
trắc học được sử dụng trên các mẫu điện thoại Samsung gần đây.
TensorFlow, một
nền tảng phổ thông nhất để phát triển các mô hình deep learning, gần đây đã có
trên các thiết bị Android. Tuy nhiên, nền tảng này hiện tại chỉ cho phép bước
“tạo ra ý nghĩa” rẻ hơn kia. Đến cuối năm 2017, TensorFlow cũng không thể xây dựng
xong các mô hình deep learning cho người học trên các thiết bị. Tất nhiên,
chương trình đỉnh cao ở Silicon Valley đã đưa khả năng này vào thành một kiểu sử
dụng cao cấp với ứng dụng “Not Hot Dog” (giờ rõ ràng đó đã là thật).
Chu trình tăng cường
Các thuật toán
và xử lý chỉ là 2 khía cạnh của chu trình. Khía cạnh thứ 3 là dữ liệu. Khi sức
mạnh xử lý tăng lên, chúng ta có thể sử dụng nhiều thuật toán yêu cầu hơn, nhờ
đó có thể áp dụng cho nhiều dữ liệu hơn (vì thế yêu cầu đối với dữ liệu sensor
dùng để đào tạo hoặc tạo ra ý nghĩa cũng sẽ tăng lên). Đến lượt nó sẽ làm tăng
yêu cầu đối với xử lý hiệu quả, cho phép chúng ta tăng độ phức tạp của giải thuật.
Chu trình này gợi
lại mối quan hệ giữa Microsoft và Intel trong quá trình thiết lập thế độc quyền
song song Wintel. Với sự phát triển bộ vi xử lý của Intel, Microsoft có thể viết
mã độc quyền và tạo những tính năng hấp thu toàn bộ khả năng của bộ xử lý. Tuy
nhiên, với những tính năng mới của Microsoft, Intel bị hối thúc phải cải tiến.
Khoảng trống trên đầu tạo ra từ các con chip mới gia tăng cho phép Microsoft
(và hệ thống các nhà cung cấp phần mềm độc lập của họ) sử dụng khoảng trống này
cho những thứ mới.
Những gì vòng lặp
tăng cường này gợi ý cho thấy việc kết hợp sức mạnh xử lý ngày càng tăng và các
thuật toán ra yêu cầu càng nhiều có thể điều khiển yêu cầu về dữ liệu rất lớn.
Và chúng ta đang
nhìn thấy điều đó. Một ví dụ rõ ràng nhất là tầm nhìn của các cỗ máy, hiện tại
chúng tương đối tốt khi được dùng là một nguồn dữ liệu chính cho phần mềm (thay
vì chỉ là dữ liệu nhật ký, các mục nhập cơ sở dữ liệu hay đầu vào của người
dùng). Những chiếc xe tự lái là ví dụ tuyệt vời cho việc này, nhưng các hệ thống
sử dụng sinh trắc học hay cửa hàng Amazon Go cũng phụ thuộc nặng nề vào tầm
nhìn của máy móc khi dùng nó làm đầu vào chính.
Nếu bạn muốn xem
toàn bộ những thứ này hoạt động, hãy nhìn vào ngành công nghiệp camera sensor
(cảm biến cho máy ảnh). Từ năm 2009 tới năm 2019, số lượng sensor CMOS bán được
dự kiến tăng 3 lần.
Các cảm biến xuất
đi trong năm 2008/9 có công việc chính là chụp ảnh mắt người để xử lý. Nhưng
ngày càng có nhiều sensor chụp các loại hình ảnh để cho các thuật toán nhận dạng
của máy móc xử lý. Nhiều bức ảnh con người sẽ không bao giờ có thể thấy được.
Các pixel giờ đây được lập trình chỉ để phần mềm truy cập.
Giả sử tuổi thọ
của một sensor CMOS cụ thể là 5 năm, chúng ta có thể mong đợi tới năm 2019 có
khoảng 45 nghìn tỷ sensor của các camera số đang hoạt động. Sức mạnh phân giải
của các sensor này cũng tăng lên. Định luật Hendy mô tả quan hệ tương tự định
luật Moore, nhưng với mật độ pixel, tốc độ tăng trung bình hằng năm là 59%. Điều
đó có nghĩa là một sensor xuất ra năm 2019 có lượng pixel gấp 100 lần của
sensor xuất năm 2009. Và với khối lượng sensor xuất ra tăng cao không ngừng,
chúng ta cũng sẽ thấy độ tăng lượng xuất ra trên mỗi đơn vị từ 2009 tới 2019 là
100%.
Tất cả các
sensor này đều có khả năng tạo ra một lượng khổng lồ dữ liệu. Một số sensor, giống
như camera thứ ba trên chiếc iPhone 7 Plus, sẽ không được dùng quá thường
xuyên. Những sensor khác, như của CCTV hay IoT, sẽ sử dụng 24/7 để streaming
các hình ảnh cần xử lý. Đội xe tự lái cho biết một chiếc xe tự lái sẽ cần có những
chiếc sensor cho camera với độ phân giải 120-150 megapixel để streaming mọi lúc
mọi nơi để đánh giá môi trường. (Để so sánh, một camera của iPhone 7 có sensor
50 megapixel. Một megapixel là đơn vị phân giải đồ họa tương đương 1.048.576
pixel).
Lidar sẽ tăng độ
phân giải lên rất đáng kể. Như CEO của Intel, Brian Krzanich cho biết trong một
bài báo gần đây:
“Trong một chiếc xe hơi tự điều khiển, chúng
ta phải tính toán các loại camera, radar, sonar, GPS và LIDAR – các thành phần
cơ bản của cách lái mới này như các piston, vòng xoay, các khối động cơ. Các
camera sẽ sinh ra 20-60 MB/s, radar khoảng trên 10kB/s, sonar 10-100 kB/s, GPS
chạy ở 50kB/s, và LIDAR trong dài 10-70 MB/s. Với những con số này, mỗi phương
tiện tự lái sẽ sinh ra khoảng 4.000 GB – hay 4 terabyte – dữ liệu một ngày.”
Để so sánh, những
người dùng internet trên di động lớn nhất thế giới, người Phần Lan, sử dụng
trung bình 2,9 Gb dữ liệu mỗi tháng vào năm 2015. (Nói cách khác, nhu cầu dữ liệu
hàng ngày của một chiếc xe tự lái tương đương với khoảng 40.000 người Phần Lan
đang say sưa lướt Internet.)
Người ta dự đoán
có khoảng 20-30 tỷ thiết bị IoT sử dụng trực tuyến vào năm 2020, dữ liệu
streaming sẽ giúp xây dựng các đối tượng thông minh hơn, nhà thông minh, thông
tin về phong cách sống của người tiêu dùng, đảm bảo kiểm soát an ninh và tiêu
thụ năng lượng.
Đó chỉ là một số
ít các ứng dụng mới đi vào trực tuyến. Còn có ít nhất 4 loại thiết bị khác sẽ tạo
ra những đòi hỏi nặng nề, mà chúng ta không có chỗ để tìm hiểu sâu hơn ở bài viết
này:
-
Thực tế ảo
(Virtual Reality -VR) và thực tế ảo tăng cường (Augmented Reality – AR). AR
và VR dựa gần như hoàn toàn vào khung nhìn của máy móc và việc mô hình hóa 3D
cùng mô phỏng sẽ tạo ra những yêu cầu xử lý đáng kinh ngạc. (Một ví dụ về cách
không gian AR/VR hình thành nên một keiretsu rộng lớn hơn, đó là việc Softbank
đã đầu tư vào kẻ tiên phong trong lĩnh vực thế giới ảo, Improbable; bị ARM – một
công ty bán dẫn - mua lại, và chiếm một phần đáng kể trong Nvidia.)
-
Ngành
thông tin sinh học (Bioinformatics) phụ thuộc vào các tính toán khối lượng
lớn, với hàng tỷ phần dữ liệu cần xử lý, phân tích và lưu trữ. Theo bài báo của
4 nhà khoa học máy tính người Đức năm 2009, kích thước cơ sở dữ liệu của chuỗi AND
tăng gấp đôi mỗi năm, một tỷ lệ tăng tốc độ khiến hiệu suất các máy tính hiện
nay khó mà theo kịp.
-
Ngành sinh
học tính toán (Computational Biology) nơi các mô phỏng tính toán và mô hình
hóa được sử dụng để nghiên cứu các hệ thống sinh học, cũng sẽ làm tăng yêu cầu
đối với các chu trình.
-
Tiền ảo
(hay tiền kỹ thuật số - cryptocurrency) có các yêu cầu tính toán riêng ở mức
độ mining (mining – thường dịch trong tiếng Việt là ‘khai phá’, ‘khai thác’ –
là việc ứng dụng các thuật toán để tìm kiếm một số mẫu trong tập dữ liệu khổng
lồ).
Chiếc bánh xe của
công nghệ tính toán đang sinh ra nhiều ứng dụng mới, sinh ra nhiều giải pháp với
thuật toán mới, sinh ra nhiều đòi hỏi về mặt dữ liệu hơn, sinh ra nhiều đòi hỏi
về mặt tính toán hơn, và nó sẽ không dừng lại. Nó sẽ tăng tốc và khiến chúng ta
phải so sánh các chu trình tính toán trước đây và các ranh giới phần mềm đang
có.
Nhu cầu của xe tự
lái là một cơ hội để chúng ta hướng dần tới ngành công nghiệp lớn gấp 5 lần
iPhone mỗi năm. Nhiều ứng dụng mới khác trong lĩnh vực machine learning cũng sẽ
gia tăng nhu cầu tính toán hơn nữa và khiến ngành công nghiệp bán dẫn tăng theo
cho phù hợp.
Azeem
Dịch từ Medium
Không có nhận xét nào:
Đăng nhận xét