Hiển thị các bài đăng có nhãn tương lai Điện toán. Hiển thị tất cả bài đăng
Hiển thị các bài đăng có nhãn tương lai Điện toán. Hiển thị tất cả bài đăng

Thứ Hai, 9 tháng 10, 2017

AI và tương lai điện toán: 1 - Khi định luật Moore gặp AI



AI và Tương lai Điện toán:
1- Khi định luật Moore gặp AI
Nếu chúng ta muốn đạt tới AI thời gian thực, chúng ta sẽ phải tạo ra một nền công nghiệp iPhone khác. Lớn hơn 5 lần.


Được liên kết sản xuất với NewCo Shift

Tháng 10 năm 2016, Tesla ra thông báo về một thay đổi lớn trong gói Advanced Driver Assistance System. Đây là sự kết hợp giữa các sensor và sức mạnh của máy tính cho phép Tesla hoàn thành lời hứa hẹn của Elon Musk vào cuối năm 2017: “lái xe từ bãi đỗ xe ở California tới bãi đỗ xe ở New York mà không cần điều khiển trên toàn bộ hành trình”.

Trong số rất nhiều thay đổi của gói sensor, có một chuyển đổi trong bộ não hệ thống. Trước đây sử dụng bộ vi xử lý từ Mobileye (gần đây đã được Intel mua lại), hiện giờ gói này đang xài Nvidia Drive PX 2. Tại sao thế?

Họ chỉ ra rằng, để an toàn, các xe tự lái cần một lượng dữ liệu cực lớn từ các hệ thống sensor. Và nếu chỉ là để tìm hiểu tất cả những gì các sensor đang nói, chiếc xe cần một lượng xử lý chưa từng có. Một khi nó biết điều gì sắp xảy ra trong môi trường, cần phải có thêm xử lý cần thiết để giúp chiếc xe biết phải làm gì tiếp theo.

Chuyển đổi Tesla làm sẽ đưa ra đầu mối cho biết xử lý nhiều tới mức nào. Bộ vi xử lý Mobileye EyeQ3 là một con chip điển hình. Nó có diện tích 42mm2 (bằng khoảng ¼ kích thước bộ vi xử lý Intel i7 hiện đại), đóng gói các transistor bằng một qui trình sản xuất các miếng transistor cách nhau 40nm.

Con chip thay thế từ Nvidia có kích cỡ 610mm2 và sử dụng kỹ thuật sản xuất tiên tiến, các transistor đóng gói ở nốt 16nm. Nốt nhỏ hơn nghĩa là các transistor được đóng gói chặt hơn 2,5 lần các transistor trong bộ vi xử lý EyeQ3. Tóm lại, con chip Nvidia thay thế có hiệu năng được cải tiến gấp 90 lần so với con chip Mobileye.

Ngay cả theo tiêu chuẩn của Định luật Moore – phát biểu rằng việc đóng gói các transistor hoặc hiệu suất của transistor sẽ tăng trung bình 60% mỗi năm – đó cũng là một bước nhảy vọt đáng kể. Thực tế, việc chuyển đổi diễn ra tương đương với một thập kỷ xử lý theo định luật Moore.

AI lớn hơn định luật Moore

Tóm lại, sự thay đổi của Tesla tóm lược các loại ứng dụng giống như machine learning theo yêu cầu để làm chúng trong tình trạng sẵn sàng xử lý. Đó không phải là những phương tiên tự động. Đó là các thiết bị được kết nối của chúng ta, cài đặt hỗ trợ các giao diện cá nhân, tương tác giọng nói và tăng cường thực tế ảo.

Ngoài ra, các phương thức lập trình của chúng ta cũng đang thay đổi. Trong thế giới của machine learning, một lượng lớn “hàng nặng” được xử lý bằng bộ não của software developer. Các developer thông minh có nhiệm vụ đơn giản hóa và biểu diễn thế giới theo toán học (giống như code trong phần mềm), sau đó các nhiệm vụ này sẽ được thực hiện theo một cách xác định và im lặng.

Trong thế giới mới của machine learning, software developer không cần lo lắng nhiều về việc dịch những thứ trừu tượng từ thế giới bên ngoài vào code. Thay vào đó, họ xây dựng các mô hình xác suất cần những tập dữ liệu khổng lồ để đưa ra kết quả tốt nhất. Cái mà lập trình viên tiết kiệm được trong việc khám phá các trừu tượng toán học, đó là việc yêu cầu máy tính làm rất nhiều tính toán (thường tới hàng tỷ phép tính một lần).

Khi machine learing trườn vào mọi ngóc ngách doanh nghiệp, nhu cầu xử lý trong công ty sẽ tăng lên rõ rệt. Điều này có ảnh hưởng thế nào trong ngành công nghiệp IT, với các nhà cung cấp phần mềm và phần cứng? Việc thực hành sẽ thay đổi thế nào? Nó sẽ tạo ra những cơ hội nào?

Dưới đây là 3 thay đổi quan trọng:
1.      Lượng tính toán cần thiết tăng lên một cách khủng khiếp
2.      Điện toán đám mây sẽ tiếp tục phát triển, lĩnh vực bên rìa cũng nở rộ
3.      Nhiều loại chip mới sẽ xuất hiện

Yêu cầu tính toán khổng lồ

Hãy bắt đầu với những chiếc xe tự lái. Tại một sự kiện gần đây do hãng đầu tư mạo hiểm Open Ocean ở Luân Đôn tổ chức, người đứng đầu bộ phận sản phẩm của Five.AI – một startup về phương tiện tự lái, đã tóm tắt các yêu cầu tính toán cần thiết cho việc tự lái hoàn toàn.

Thách thức mấu chốt nhân lên 2 lần. Đầu tiên, chiếc xe phải vẽ bản đồ không gian actor – state (thực thể - trạng thái). Không gian actor – state biểu diễn môi trường bên ngoài xung quanh chiếc xe, gồm tất cả các đối tượng, phương tiện, con người …, và tình trạng hiện tại của chúng (đứng im, hướng, gia tốc, tốc độ, …)..

Thứ hai, chiếc xe cần tìm cách cư xử phù hợp. Hành động tốt nhất tiếp theo của nó là gì trong tình huống khách hàng đang cố gắng đi tới một nơi cho trước, các mối nguy hiểm xung quanh xe ngay bây giờ cũng đã biết?

Để làm điều này, mỗi chiếc xe cần một đống dữ liệu từ Lidar, cameras và các sensor. Lidar, viết tắt của “Light Detection and ranging” (phát hiện đèn và xếp hàng), là một sensor giống như radar, rất phổ biến trên nhiều xe tự lái (dù Tesla sử dụng công nghệ khác).

Một hệ thống con cần xử lý mối ghép sensor và các bước cảm biến trước khi các hệ thống con bổ sung lập kế hoạch hành động tiếp theo. Toàn bộ xử lý này xảy ra trên thiết bị (chiếc xe); ngay cả với mạng 5G, nguy cơ trễ khi khi dữ liệu theo tín hiệu dự báo cũng là quá lớn.

Khi đưa xe vào chế độ tự lái hoàn toàn và an toàn, toàn bộ việc xử lý cùng nhập liệu này ước tính mất khoảng 200 teraflop xử lý, tất cả về căn bản đều cần được thực hiện trong một giây hoặc khung thời gian nhỏ hơn.

200 teraflop là bao nhiêu? Ngày nay có quá nhiều tiêu chuẩn: nhiều chu trình khác xa định luật Moore. Để hoàn thành 200 nghìn tỷ phép tính dấu phẩy động trong khung thời gian một giây tính sơ sơ cần 10 chiếc iPhone theo mẫu hiện tại. Đặc biệt là với khả năng của thiết bị dùng Nvidia chạy trong các mẫu Tesla hiện tại. (Để công bằng, Ngài Musk có lẽ có thể đạt được mục tiêu của mình với các GPU Nvidia hiện tại nếu việc tối ưu hóa thuật toán cung cấp một bước thay đổi đáng kể trong hiệu suất tính toán.)

Lượng ô tô và xe tải sản xuất ra hằng năm khoảng 100 triệu xe trên toàn cầu. Điều này có nghĩa là để “thông minh”, toàn bộ sản lượng xe theo các giả định này sẽ yêu cầu tương đương với việc bổ sung khoảng 1 tỷ iPhone mỗi năm.

Sản lượng iPhone toàn cầu hiện nay đã đạt khoảng 200 triệu chiếc vào năm 2016. Vì thế để thông minh hóa số lượng ô tô trên, theo nghĩa thực, tương đương với việc tăng kích cỡ hiện tại của chip bán dẫn hỗ trợ trong ngành công nghiệp iPhone lên ít nhất 5 lần.

Mối quan tâm thứ hai là chi phí và sức tải của việc xử lý. Những chiếc xe tự lái cần có giá phải chăng. Và vì chúng hoạt động bằng điện, bộ não của nó sẽ phải được cấp nguồn hiệu quả. Một chiếc Tesla đốt khoảng 200 Watt giờ trên mỗi kilomet. Một chiếc GPU hiệu năng cao nhưng nguồn cấp cũng cao có lẽ cần thêm 1,2% điện năng tiêu thụ cho tải (Nvidia PX2 tiêu tốn 250W). Tăng công suất tải sẽ kéo theo giảm dải giá trị.

Chuyển dịch các bit đắt gần như chuyển dịch các nguyên tử
Xe tự lái có kết cục hấp dẫn hơn trong những yêu cầu tính toán tăng lên của chúng ta. Các phương pháp deep learning hiện đại cũng có những yêu cầu tính toán nhiều ý nghĩa. Một mạng neuron hiện đại có hàng tá các lớp liên kết và hàng tỷ biến số, đòi hỏi phải tăng thêm một bước trong công suất tính toán từ những gì chúng ta có hiện nay.

Như nhà phân tích AI Libby Kinsey phác thảo trong một bài luận gần đây, hầu hết các phương pháp đột phá trong deep learning đều sử dụng những lượng tính toán khổng lồ. Trong bất kỳ một hệ thống machine learning nào, dạy mô hình làm sao tiên đoán hiệu quả là bước tính toán đắt giá nhất. Bước thứ hai, áp dụng để sản xuất đầu ra hữu ích (còn gọi là tạo ra ý nghĩa), bước này rẻ hơn nhiều. Nhưng vẫn không phải là miễn phí.

Chỉ mới gần đây, vì lý do này, việc nhận dạng đối tượng đã bắt đầu dịch chuyển từ đám mây sang điện thoại di động. Tạo ra ý nghĩa một cách cục bộ sẽ cho phép machine learning ngay trên thiết bị - nghĩa là nó sẽ nhanh hơn và đáng tin cậy hơn khi các mạng dữ liệu chắp vá. Ví dụ hay cho điều này là khóa nhận dạng gương mặt theo sinh trắc học được sử dụng trên các mẫu điện thoại Samsung gần đây.

TensorFlow, một nền tảng phổ thông nhất để phát triển các mô hình deep learning, gần đây đã có trên các thiết bị Android. Tuy nhiên, nền tảng này hiện tại chỉ cho phép bước “tạo ra ý nghĩa” rẻ hơn kia. Đến cuối năm 2017, TensorFlow cũng không thể xây dựng xong các mô hình deep learning cho người học trên các thiết bị. Tất nhiên, chương trình đỉnh cao ở Silicon Valley đã đưa khả năng này vào thành một kiểu sử dụng cao cấp với ứng dụng “Not Hot Dog” (giờ rõ ràng đó đã là thật).

Chu trình tăng cường
Các thuật toán và xử lý chỉ là 2 khía cạnh của chu trình. Khía cạnh thứ 3 là dữ liệu. Khi sức mạnh xử lý tăng lên, chúng ta có thể sử dụng nhiều thuật toán yêu cầu hơn, nhờ đó có thể áp dụng cho nhiều dữ liệu hơn (vì thế yêu cầu đối với dữ liệu sensor dùng để đào tạo hoặc tạo ra ý nghĩa cũng sẽ tăng lên). Đến lượt nó sẽ làm tăng yêu cầu đối với xử lý hiệu quả, cho phép chúng ta tăng độ phức tạp của giải thuật.

Chu trình này gợi lại mối quan hệ giữa Microsoft và Intel trong quá trình thiết lập thế độc quyền song song Wintel. Với sự phát triển bộ vi xử lý của Intel, Microsoft có thể viết mã độc quyền và tạo những tính năng hấp thu toàn bộ khả năng của bộ xử lý. Tuy nhiên, với những tính năng mới của Microsoft, Intel bị hối thúc phải cải tiến. Khoảng trống trên đầu tạo ra từ các con chip mới gia tăng cho phép Microsoft (và hệ thống các nhà cung cấp phần mềm độc lập của họ) sử dụng khoảng trống này cho những thứ mới.




Những gì vòng lặp tăng cường này gợi ý cho thấy việc kết hợp sức mạnh xử lý ngày càng tăng và các thuật toán ra yêu cầu càng nhiều có thể điều khiển yêu cầu về dữ liệu rất lớn.

Và chúng ta đang nhìn thấy điều đó. Một ví dụ rõ ràng nhất là tầm nhìn của các cỗ máy, hiện tại chúng tương đối tốt khi được dùng là một nguồn dữ liệu chính cho phần mềm (thay vì chỉ là dữ liệu nhật ký, các mục nhập cơ sở dữ liệu hay đầu vào của người dùng). Những chiếc xe tự lái là ví dụ tuyệt vời cho việc này, nhưng các hệ thống sử dụng sinh trắc học hay cửa hàng Amazon Go cũng phụ thuộc nặng nề vào tầm nhìn của máy móc khi dùng nó làm đầu vào chính.

Nếu bạn muốn xem toàn bộ những thứ này hoạt động, hãy nhìn vào ngành công nghiệp camera sensor (cảm biến cho máy ảnh). Từ năm 2009 tới năm 2019, số lượng sensor CMOS bán được dự kiến tăng 3 lần.



Các cảm biến xuất đi trong năm 2008/9 có công việc chính là chụp ảnh mắt người để xử lý. Nhưng ngày càng có nhiều sensor chụp các loại hình ảnh để cho các thuật toán nhận dạng của máy móc xử lý. Nhiều bức ảnh con người sẽ không bao giờ có thể thấy được. Các pixel giờ đây được lập trình chỉ để phần mềm truy cập.

Giả sử tuổi thọ của một sensor CMOS cụ thể là 5 năm, chúng ta có thể mong đợi tới năm 2019 có khoảng 45 nghìn tỷ sensor của các camera số đang hoạt động. Sức mạnh phân giải của các sensor này cũng tăng lên. Định luật Hendy mô tả quan hệ tương tự định luật Moore, nhưng với mật độ pixel, tốc độ tăng trung bình hằng năm là 59%. Điều đó có nghĩa là một sensor xuất ra năm 2019 có lượng pixel gấp 100 lần của sensor xuất năm 2009. Và với khối lượng sensor xuất ra tăng cao không ngừng, chúng ta cũng sẽ thấy độ tăng lượng xuất ra trên mỗi đơn vị từ 2009 tới 2019 là 100%.

Tất cả các sensor này đều có khả năng tạo ra một lượng khổng lồ dữ liệu. Một số sensor, giống như camera thứ ba trên chiếc iPhone 7 Plus, sẽ không được dùng quá thường xuyên. Những sensor khác, như của CCTV hay IoT, sẽ sử dụng 24/7 để streaming các hình ảnh cần xử lý. Đội xe tự lái cho biết một chiếc xe tự lái sẽ cần có những chiếc sensor cho camera với độ phân giải 120-150 megapixel để streaming mọi lúc mọi nơi để đánh giá môi trường. (Để so sánh, một camera của iPhone 7 có sensor 50 megapixel. Một megapixel là đơn vị phân giải đồ họa tương đương 1.048.576 pixel).

Lidar sẽ tăng độ phân giải lên rất đáng kể. Như CEO của Intel, Brian Krzanich cho biết trong một bài báo gần đây:

Trong một chiếc xe hơi tự điều khiển, chúng ta phải tính toán các loại camera, radar, sonar, GPS và LIDAR – các thành phần cơ bản của cách lái mới này như các piston, vòng xoay, các khối động cơ. Các camera sẽ sinh ra 20-60 MB/s, radar khoảng trên 10kB/s, sonar 10-100 kB/s, GPS chạy ở 50kB/s, và LIDAR trong dài 10-70 MB/s. Với những con số này, mỗi phương tiện tự lái sẽ sinh ra khoảng 4.000 GB – hay 4 terabyte – dữ liệu một ngày.

Để so sánh, những người dùng internet trên di động lớn nhất thế giới, người Phần Lan, sử dụng trung bình 2,9 Gb dữ liệu mỗi tháng vào năm 2015. (Nói cách khác, nhu cầu dữ liệu hàng ngày của một chiếc xe tự lái tương đương với khoảng 40.000 người Phần Lan đang say sưa lướt Internet.)

Người ta dự đoán có khoảng 20-30 tỷ thiết bị IoT sử dụng trực tuyến vào năm 2020, dữ liệu streaming sẽ giúp xây dựng các đối tượng thông minh hơn, nhà thông minh, thông tin về phong cách sống của người tiêu dùng, đảm bảo kiểm soát an ninh và tiêu thụ năng lượng.

Đó chỉ là một số ít các ứng dụng mới đi vào trực tuyến. Còn có ít nhất 4 loại thiết bị khác sẽ tạo ra những đòi hỏi nặng nề, mà chúng ta không có chỗ để tìm hiểu sâu hơn ở bài viết này:
-          Thực tế ảo (Virtual Reality -VR) và thực tế ảo tăng cường (Augmented Reality – AR). AR và VR dựa gần như hoàn toàn vào khung nhìn của máy móc và việc mô hình hóa 3D cùng mô phỏng sẽ tạo ra những yêu cầu xử lý đáng kinh ngạc. (Một ví dụ về cách không gian AR/VR hình thành nên một keiretsu rộng lớn hơn, đó là việc Softbank đã đầu tư vào kẻ tiên phong trong lĩnh vực thế giới ảo, Improbable; bị ARM – một công ty bán dẫn - mua lại, và chiếm một phần đáng kể trong Nvidia.)
-          Ngành thông tin sinh học (Bioinformatics) phụ thuộc vào các tính toán khối lượng lớn, với hàng tỷ phần dữ liệu cần xử lý, phân tích và lưu trữ. Theo bài báo của 4 nhà khoa học máy tính người Đức năm 2009, kích thước cơ sở dữ liệu của chuỗi AND tăng gấp đôi mỗi năm, một tỷ lệ tăng tốc độ khiến hiệu suất các máy tính hiện nay khó mà theo kịp.
-          Ngành sinh học tính toán (Computational Biology) nơi các mô phỏng tính toán và mô hình hóa được sử dụng để nghiên cứu các hệ thống sinh học, cũng sẽ làm tăng yêu cầu đối với các chu trình.
-          Tiền ảo (hay tiền kỹ thuật số - cryptocurrency) có các yêu cầu tính toán riêng ở mức độ mining (mining – thường dịch trong tiếng Việt là ‘khai phá’, ‘khai thác’ – là việc ứng dụng các thuật toán để tìm kiếm một số mẫu trong tập dữ liệu khổng lồ).

Chiếc bánh xe của công nghệ tính toán đang sinh ra nhiều ứng dụng mới, sinh ra nhiều giải pháp với thuật toán mới, sinh ra nhiều đòi hỏi về mặt dữ liệu hơn, sinh ra nhiều đòi hỏi về mặt tính toán hơn, và nó sẽ không dừng lại. Nó sẽ tăng tốc và khiến chúng ta phải so sánh các chu trình tính toán trước đây và các ranh giới phần mềm đang có.

Nhu cầu của xe tự lái là một cơ hội để chúng ta hướng dần tới ngành công nghiệp lớn gấp 5 lần iPhone mỗi năm. Nhiều ứng dụng mới khác trong lĩnh vực machine learning cũng sẽ gia tăng nhu cầu tính toán hơn nữa và khiến ngành công nghiệp bán dẫn tăng theo cho phù hợp.

Azeem
Dịch từ Medium