Cuộc đua đưa trí tuệ nhân tạo từ đám mây vào lòng bàn tay mỗi người
Ngày càng nhiều thiết bị di động, điện thoại thông minh, máy tính trang bị tính năng trí tuệ nhân tạo, xử lý dữ liệu cục bộ thay vì tại một cơ sở điện toán đám mây tập trung.
Khi Xie Weiqin, Giám đốc giải pháp AI Vivo, nhập câu "Tìm bức ảnh một cô gái cười trong khi mang túi rác trong mưa” vào điện thoại tại Hội nghị nhà phát triển Vivo ngày 1/11, bức ảnh của cô gái xuất hiện gần như ngay lập tức trên màn hình thiết bị.
Xie đang trình diễn trợ lý điện thoại thông minh được hỗ trợ bởi mô hình trí tuệ nhân tạo (AI) mới nhất của Vivo. Ngoài việc tìm kiếm ảnh và tệp, mô hình có thể giúp người dùng chỉnh sửa ảnh, trích xuất các luận điểm chính từ báo cáo và tạo các chủ đề truyền thông xã hội dựa trên từ khóa hoặc hình ảnh. Các chức năng smartphone mới này được kích hoạt bởi công nghệ Edge AI.
Edge AI cho phép xử lý dữ liệu cục bộ ngay trên thiết bị, thay vì tại một cơ sở điện toán đám mây tập trung. Khác với AI dựa trên đám mây, dựa vào các trung tâm dữ liệu để xử lý các tác vụ sử dụng nhiều tài nguyên, Edge AI đưa ra quyết định theo thời gian thực mà không cần Internet và có thể triển khai trên thiết bị thông minh sử dụng hằng ngày.
Chatbot ChatGPT của OpenAI phát hành cuối năm 2022 đã khởi động một cuộc đua AI toàn cầu xoay quanh các mô hình ngôn ngữ lớn (LLM) - một loại AI có thể bắt chước trí thông minh của con người - và gây ra cạnh tranh giữa các nhà sản xuất thiết bị và nhà sản xuất chip.
Sau Vivo, Samsung Electronics đã giới thiệu mô hình AI tạo sinh Gauss vào ngày 8/11, còn Oppo phát hành mô hình AndesGPT vào cuối tháng.
Xiaomi và Honor Technology công bố tiến bộ trong việc phát triển LLM vào cuối tháng 10. Huawei cũng tích hợp LLM cho điện thoại thông minh của mình vào tháng 8.
Vào cuối tháng 10, gã khổng lồ chip Qualcomm của Mỹ giới thiệu Snapdragon 8 Gen 3, bộ vi xử lý đầu tiên trên thế giới hỗ trợ các mô hình AI tạo sinh với 10 tỷ thông số.
Nhà sản xuất chip MediaTek trước đó cho biết hợp tác với Oppo và Vivo về LLM. JC Hsu, Phó Chủ tịch cấp cao của MediaTek, nhận xét "cạnh tranh khốc liệt đang diễn ra" trong lĩnh vực AI tạo sinh.
Các công ty và nhà đầu tư dự đoán việc áp dụng công nghệ AI mới sẽ hồi sinh thị trường điện tử tiêu dùng đang suy yếu. Dữ liệu từ hãng nghiên cứu thị trường Counterpoint cho thấy trong quý III/2023, các lô hàng điện thoại thông minh toàn cầu đã giảm quý thứ 9 liên tiếp, giảm 8% so với cùng kỳ năm ngoái và chạm mức thấp nhất trong quý III trong một thập kỷ.
Các lô hàng PC toàn cầu cũng giảm 9% trong quý III. Counterpoint dự báo PC được hỗ trợ bởi AI rất có khả năng thúc đẩy sự phục hồi trong các lô hàng vào năm 2024 và thống trị thị trường PC với tỷ lệ thâm nhập hơn 50% sau năm 2026.
Tuy nhiên, những thách thức vẫn tồn tại đối với các mô hình Edge AI do yêu cầu sức mạnh xử lý cao và ngốn bộ nhớ, không gian lưu trữ, làm tăng đáng kể chi phí.
Đối với các thiết bị di động, LLM đối mặt với những khó khăn trong việc tiêu thụ năng lượng, vì mật độ năng lượng pin là một “nút thắt cổ chai” khó khắc phục trong ngắn hạn, các nhà phân tích cho biết.
Một kỹ sư LLM nói rằng có thể mất sáu tháng đến một năm để người tiêu dùng trải nghiệm sự thay đổi về chất do Edge AI mang lại.
Chỉ số hiệu suất
Ứng dụng phổ biến nhất của LLM trên smartphone là trợ lý thông minh. Chúng đã phát triển từ tương tác bằng giọng nói sang hỗ trợ nhiều đầu vào như giọng nói, văn bản, hình ảnh và tài liệu.
Chúng tiến bộ từ việc thụ động làm theo hướng dẫn đến tham gia vào các cuộc trò chuyện tự nhiên và tiến hành tóm tắt, truy xuất thông tin và dịch thuật đa ngôn ngữ.
"Trước đây, nói chuyện với AI đòi hỏi sự cân nhắc cẩn thận, tương tự như chăm sóc một đứa trẻ", Luan Jian, người đứng đầu Nhóm mô hình lớn phòng thí nghiệm AI của Ủy ban kỹ thuật Xiaomi cho biết. Nhưng giờ đây, LLM có thể giúp người dùng giao tiếp với AI một cách tự nhiên hơn.
Các nhà sản xuất thiết bị như Oppo đang giới thiệu tính năng trí tuệ nhân tạo ngay trên thiết bị. (Ảnh: Nikkei)
AI cũng giúp người dùng sản xuất âm nhạc và hình ảnh trên các thiết bị. Trong Hội nghị thượng đỉnh Snapdragon, Qualcomm demo tính năng "tăng cường hình ảnh", trong đó một bức ảnh có thể được mở rộng với phong cảnh do AI tạo ra.
MediaTek giới thiệu tính năng biểu tượng cảm xúc nhanh chóng. Trong khi đó, Pat Gelsinger, CEO của Intel, trình diễn một chiếc PC hỗ trợ AI sáng tác bài hát theo phong cách của Taylor Swift tại Intel Innovation 2023 hồi tháng 9.
Cristiano Amon, CEO của Qualcomm, cho biết trong một bài phát biểu rằng, nếu một năm trước chỉ có một hoặc hai trường hợp sử dụng (use case) cho AI tạo sinh, bây giờ đã lên đến hàng trăm và tăng lên hàng nghìn vào năm 2024. "Chạy AI phổ biến và liên tục trên thiết bị sẽ thay đổi trải nghiệm người dùng", Amon nói.
Logic đứng sau chi phí
"Chúng ta có thể chi 1 tỷ USD để tạo ra một mô hình nghìn tỷ tham số trên đám mây, nhưng làm thế nào để chúng tôi có được hàng trăm triệu người sử dụng nó?", Gelsinger hỏi trong một cuộc phỏng vấn vào tháng 9 với Caixin.
Ông chỉ ra, nó không thể đạt được nếu người dùng chỉ được phép truy cập đám mây mà cần đưa công nghệ đến gần hơn với khách hàng. Ngoài ra, chạy mô hình AI đám mây trên PC có thể đảm bảo quyền riêng tư và bảo mật dữ liệu.
Trong 6 tháng qua, các nhà phát triển điện thoại thông minh và chip liên tục đề cập đến những lợi thế của các mô hình Edge AI trong việc bảo vệ quyền riêng tư và bảo mật.
"Dữ liệu người dùng, bao gồm ghi âm cuộc gọi, ảnh, dấu vân tay và khuôn mặt, tất cả sẽ được sử dụng bởi các mô hình lớn để phân tích và suy luận. Nếu mọi thứ được gửi lên đám mây, đặc biệt là cho các bên thứ ba, bạn có thể chấp nhận điều đó không", Luo Xuan, đồng sáng lập Mô hình ngôn ngữ RWKV đặt câu hỏi.
Zhao Ming, CEO Honor, cho biết các mô hình AI đám mây giải quyết cách để tích hợp kiến thức của con người theo cách tốt hơn, nhưng các mô hình Egde AI phân tích dữ liệu cá nhân, hành vi và thói quen để cung cấp dịch vụ.
"Nếu các mô hình AI đám mây biết mọi thứ về bạn, chẳng hạn như chứng minh thư, số điện thoại, địa chỉ và cân nặng, điều đó thật đáng sợ", Zhao nói. Các mô hình Edge AI có thể tránh được những vấn đề này vì cả dữ liệu và đầu ra mô hình đều nằm trên thiết bị cục bộ.
Trong Hội nghị nhà phát triển Vivo, Zhou Wei, Phó Chủ tịch của Vivo, tiết lộ chi phí tối thiểu để sử dụng mô hình AI đám mây một lần là 0,012 nhân dân tệ (41,05 đồng) và chi phí hiện tại là khoảng 0,015 nhân dân tệ (51,32 đồng).
"Nếu 300 triệu người sử dụng nó 10 lần một ngày, hóa đơn tăng lên khoảng 10 tỷ nhân dân tệ mỗi năm", Zhou tính toán.
Chi phí gia tăng cũng đang đẩy LLM về phía Edge AI. Các mô hình AI trên đám mây thường có hàng chục tỷ hoặc hàng trăm tỷ tham số, khiến việc tính toán suy luận trở nên đắt đỏ.
Theo Zhao, ngày nay, không có mô hình AI đám mây nào mang lại lợi nhuận vì mức tiêu thụ điện năng tính toán khổng lồ. Nhiều tính toán không yêu cầu các giải pháp trên mây. Trong tương lai, ngành công nghiệp có kế hoạch sử dụng các mô hình Edge AI và đám mây cùng nhau.
Tìm kiếm sự cân bằng
Bị hạn chế bởi sức mạnh xử lý, bộ nhớ, dung lượng lưu trữ và thời lượng pin của các thiết bị thông minh, các mô hình Edge AI được đào tạo với hàng tỷ thông số.
"Trong sáu tháng đến một năm tới, smartphone có thể chạy LLM với tối đa 14 tỷ thông số, trong khi PC dự kiến bao gồm các mô hình với 60 tỷ thông số.
Về phía đám mây, sẽ có mô hình còn lớn hơn GPT-4 của OpenAI, đóng vai trò nền tảng cho Internet thế hệ tiếp theo. Chúng sẽ bổ sung cho nhau, giống như mối quan hệ hiện tại giữa phần mềm trên máy và Internet", Luo nói.
Luo chỉ ra, một mô hình lớn với khả năng hiểu ngữ cảnh đòi hỏi ít nhất 13 tỷ thông số, chiếm đáng kể bộ nhớ smartphone và ảnh hưởng đến hiệu suất. Tiêu thụ năng lượng là vấn đề “hóc búa” hơn nhiều so với việc sử dụng bộ nhớ, xét đến thách thức của việc tăng dung lượng pin.
Zhao nói rằng Edge AI chắc chắn sẽ yêu cầu nâng cấp phần cứng. Nếu không cân bằng được ba yếu tố - quyền riêng tư của người dùng, sức mạnh tính toán và mức tiêu thụ điện năng, AI không thể mang lại cho người tiêu dùng trải nghiệm tốt hơn.
Một số người trong ngành công nghiệp AI nhận xét các mô hình Edge AI vẫn đang trong giai đoạn đầu và ngành công nghiệp vẫn đang khám phá các ứng dụng trong tương lai.
Để tăng cường khả năng xử lý LLM của các thiết bị hỗ trợ AI, bước đầu tiên là tăng dung lượng bộ nhớ và băng thông, theo Luan. Tiếp đó, tăng hoặc tối ưu hóa sức mạnh tính toán để hỗ trợ hiệu quả cấu trúc mạng của LLM. Ngoài ra, cải tiến các thuật toán suy luận là cần thiết để giảm nhu cầu sức mạnh tính toán.
"Tuy nhiên, các mô hình Edge AI chắc chắn sẽ thay đổi cách sử dụng điện thoại thông minh", ông Luan nói.
(Theo Caixin)
- Mạng xã hội Threads có thêm 35 triệu người dùng nhờ Elon Musk và Donald Trump
- Nhiều startup công nghệ thắng lớn tại Techfest Việt Nam 2024
- Indonesia: Apple đã rót hơn 15 tỷ USD vào sản xuất tại Việt Nam
- Chuyển đổi số để phát triển quận Bắc Từ Liêm xứng tầm
- OpenAI nhắm đến hai địa hạt thống trị của Google
- OpenAI chi bao nhiêu để mua nội dung đào tạo ChatGPT?
- OpenAI nhắm đến hai địa hạt thống trị của Google
- Doanh nghiệp Việt loay hoay tăng thu giảm chi bằng chuyển đổi số
- Ban hành Kế hoạch hành động quốc gia về phát triển kinh tế số