- Ngày thứ hai trong khuôn khổ sự kiện Intel Innovation 2023, Giám đốc Công nghệ của Intel, ông Greg Lavender đã cung cấp một cái nhìn chi tiết về các triết lý ưu tiên nhà phát triển và hệ sinh thái mở của Intel đang hoạt động nhằm đảm bảo tất cả mọi người đều có sử dụng trí tuệ nhân tạo (AI) để nắm bắt những cơ hội mới.
Dễ dàng triển khai AI với sự tin tưởng và tính bảo mật
Trong phần trình bày tại Intel Innovion 2023 ngày thứ hai, ông Lavender nhấn mạnh cam kết của Intel trong việc bảo mật xuyên suốt (end-to-end) với Intel® Transparent Supply Chain để xác thực phần cứng và phần mềm, cũng như điện toán an toàn (confidential computing) để bảo vệ những dữ liệu nhạy cảm trong bộ nhớ. Hôm nay, Intel tiếp tục mở rộng khả năng bảo mật và bảo vệ tính toàn vẹn của dữ liệu với một số dịch vụ và công cụ mới, trong đó có một dịch vụ xác thực mới.
Đây là dịch vụ đầu tiên nằm trong danh mục phần mềm và dịch vụ bảo mật Intel Trust Authority mới. Dịch vụ này cung cấp khả năng đánh giá độc lập và thống nhất về tính toàn vẹn của TEE, khả năng thực thi chính sách, và kiểm tra các hồ sơ. Các nhà phát triển cũng có thể sử dụng dịch vụ này ở bất kỳ nơi nào được triển khai điện toán an toàn của Intel, bao gồm đa đám mây (multi-cloud), đám mây lai (hybrid), máy chủ tại chỗ (on-premises), cũng như edge (vùng biên đám mây).
Intel Trust Authority cũng sẽ là một cải tiến quan trọng dành cho AI an toàn (confidential AI) để đảm bảo tính tin cậy của các môi trường điện toán an toàn, nơi các sở hữu trí tuệ (intellectual property, viết tắt là IP) và dữ liệu được xử lý trong các ứng dụng máy học, đặc biệt là suy luận trên các thế hệ vi xử lý Intel® Xeon hiện nay và tương lai.
AI là động lực đổi mới với các trường hợp sử dụng đa dạng trong mọi ngành nghề, từ y tế, tài chính cho đến thương mại điện tử, nông nghiệp.
Hệ sinh thái mở mang đến quyền lựa chọn với hiệu năng được tối ưu hóa
Các tổ chức trên toàn cầu đang sử dụng AI để tăng tốc khám phá khoa học, chuyển đổi mô hình kinh doanh, và cải thiện dịch vụ khách hàng. Tuy nhiên, ứng dụng thực tiễn của các giải pháp AI vẫn đang gặp phải nhiều giới hạn mà các doanh nghiệp chưa giải quyết được.
Đầu tiên, các tổ chức thiếu nguồn lực và chuyên môn nội bộ để quản lý quy trình AI hợp lý (bao gồm việc chuẩn bị dữ liệu và thiết lập mô hình). Chưa kể, các nền tảng độc quyền đang quá đắt đỏ và tốn thời gian duy trì hoạt động.
Intel cam kết thúc đẩy phát triển một hệ sinh thái mở để quá trình triển khai trên nhiều kiến trúc trở nên dễ dàng hơn. Việc Intel trở thành một trong những thành viên sáng lập Unified Acceleration Foundation (UXL) của Linux Foundation là một minh chứng cụ thể. Nhóm liên ngành này cam kết cung cấp mô hình lập trình tăng tốc mở để đơn hóa giản quá trình phát triển ứng dụng khi triển khai trên nhiều nền tảng. UXL là một bước tiến mới của oneAPI.
Mô hình lập trình oneAPI của Intel cho phép lập trình một lần và triển khai trên nhiều nền tảng kiến trúc điện toán khác nhau như CPU, GPU, FGPA, và các bộ gia tốc. Intel sẽ tiếp tục đóng góp cấu hình oneAPI cho UXL Foundation để thúc đẩy khả năng lập trình đa nền tảng trên nhiều kiến trúc.
Intel cũng đang hợp tác cùng các hãng phần mềm hàng đầu như Red Hat, Canonical, và SUSE để mang cung cấp các bản phân phối phần mềm doanh nghiệp được tối ưu hóa bởi Intel nhằm đảm bảo hiệu năng của chúng khi chạy các kiến trúc mới nhất của Intel.
Để hỗ trợ các nhà phát triển mở rộng hiệu năng nhanh chóng và dễ dàng, Intel Granulate đang bổ sung tính năng Auto Pilot để điều chỉnh tài nguyên của pod (đại diện cho một nhóm gồm một hoặc nhiều ứng dụng container). Công cụ tối ưu hóa dung lượng cung cấp các đề xuất quản lý dung lượng tự động và liên tục cho người dùng Kubernetes. Điều này giúp họ giảm khoản đầu tư cần thiết để đáp ứng các chỉ số chi phí - hiệu năng cho các môi trường được container hóa. Intel Granulate cũng bổ sung khả năng điều phối các ứng dụng Databricks tự động, qua đó giảm trung bình 30% chi phí, và 23% thời gian xử lý mà không cần thay đổi mã.
Khi thế giới ngày càng cần đến AI để giải quyết những vấn đề lớn và phức tạp, cũng mang lại kết quả kinh doanh thực tế, nhu cầu bảo vệ các mô hình, dữ liệu và nền tảng AI khỏi việc bị xâm nhập, thao túng và đánh cắp đang ngày một tăng lên. FHE cho phép chạy các tính toán trực tiếp trên dữ liệu đã được mã hóa, dù việc triển khai trên thực tiễn vẫn đang gặp nhiều giới hạn bởi độ phức tạp tính toán (computational complexity) và chi phí.
Phạm Lê