Bí mật của DeepSeek: Gã khổng lồ vừa gây sốc Phố Wall, khiến Thung lũng Silicon lao dốc hàng loạt

Trang Ly |

DeepSeek của Trung Quốc đang khuấy động thị trường toàn cầu và khiến loạt công ty tại Thung lũng Silicon chao đảo.

DeepSeek Trung Quốc dấy lên nghi ngờ tỷ đô?

Tháng 1/2025, công ty trí tuệ nhân tạo DeepSeek của Trung Quốc trình làng DeepSeek-R1. Ngay lập tức, mô hình trí tuệ nhân tạo có thể sao chép hiệu suất mô hình o1 của OpenAI với chi phí chỉ bằng một phần nhỏ đã khiến các nhà đầu tư, nhà phân tích Phố Wall và một loạt công ty công nghệ tại Thung lũng Silicon sửng sốt, kinh ngạc.

Tệ hơn, tiền cũng theo đó "bốc hơi".

Ngày 27/1/2025, ngày tồi tệ nhất của Nvidia đã đến khi giá cổ phiếu Nvidia giảm 17%, khiến vốn hóa thị trường của nhà sản xuất chip bay mất 588,8 tỷ USD. Đây là khoản lỗ lớn nhất trong một ngày của một công ty trong lịch sử Mỹ. CEO Nvidia - tỷ phú Jensen Huang - tụt hạng xuống vị trí thứ 17 trong danh sách những người giàu nhất hành tinh, theo Forbes.

Các công ty trung tâm dữ liệu dựa vào chip Nvidia cũng lao dốc, trong đó Dell, Oracle và Super Micro Computer đều giảm ít nhất 8,7%. Riêng Broadcom giảm 17%, CNBC thông tin.

Cổ phiếu một loạt công ty công nghệ cũng sụt giảm. Meta và Alphabet (công ty mẹ của Google) cũng giảm mạnh. Các đối thủ cạnh tranh của Nvidia là Marvell, Broadcom, Micron và TSMC cũng giảm mạnh không kém. Vertiv, Constellation, NuScale và các công ty năng lượng và trung tâm dữ liệu khác đều lao dốc, CNN bổ sung.

Điểm khác biệt của DeepSeek đến từ việc nó miễn phí, mã nguồn mở, chỉ mất 2 tháng và chưa đến 6 triệu USD cùng con chip H800s tối giản của chính Nvidia để xây dựng. Đối thủ của ChatGPT nhanh chóng trở thành ứng dụng được tải xuống nhiều nhất.

Dưới góc độ kinh doanh, sự ra mắt thành công của DeepSeek là chiến thắng của mã nguồn mở trước các phương pháp phát triển AI vốn độc quyền, khép kín của phương Tây.

Dưới góc độ môi trường, việc DeepSeek của Trung Quốc ra mắt chatbot AI rẻ hơn nhiều so với các hệ thống do những gã khổng lồ công nghệ Mỹ như Microsoft và Google vận hành, thì có thể khiến công nghệ "made in China" này tiêu tốn ít năng lượng hơn.

Điều đó ngay lập tức làm dấy lên nghi ngờ về hàng tỷ đô mà các công ty công nghệ Mỹ thuộc Thung lũng Silicon đang chi cho việc mở rộng đáng kể các trung tâm dữ liệu vốn tiêu tốn nhiều năng lượng mà họ cho là cần thiết để mở khóa làn sóng trí tuệ nhân tạo tiếp theo.

AI cần bao nhiêu năng lượng?

Giả định lâu nay là làn sóng AI tiếp theo sẽ đòi hỏi phải mở rộng trung tâm dữ liệu lớn để đáp ứng nhu cầu ngày càng tăng. Việc này đòi hỏi không chỉ chi phí và đất đai để xây dựng mà còn cần rất nhiều năng lượng, nước để vận hành.

Paul Deane, giảng viên cao cấp về tương lai năng lượng sạch tại Đại học Cork, Ireland, cho biết: "AI về cơ bản có nhu cầu rất lớn và dữ dội về năng lượng".

Việc hỏi ChatGPT của OpenAI một câu hỏi cũng tốn lượng điện gấp gần 10 lần so với một lần tìm kiếm trên Google.

Theo Cơ quan Năng lượng Quốc tế (IEA), hiện nay có hơn 8.000 trung tâm dữ liệu (data center) đang tiêu thụ khoảng 1 đến 2% lượng điện toàn cầu. Cơ quan này dự báo, các trung tâm dữ liệu chuyên dụng AI sẽ cần 90 nghìn tỷ watt-giờ điện trên toàn cầu vào năm 2026, gấp hơn 10 lần lượng điện mà họ sử dụng vào năm 2022. Tác động môi trường của sự bùng nổ nhu cầu năng lượng khổng lồ đó đang trở nên không thể làm ngơ.

Công ty dịch vụ tài chính Goldman Sachs của Mỹ ước tính nhu cầu điện năng của trung tâm dữ liệu có thể tăng 160% vào năm 2030, trong khi điện có thể tăng lên khoảng 4% vào năm 2030 trên toàn cầu.

Bí mật của DeepSeek: Gã khổng lồ vừa gây sốc Phố Wall, khiến Thung lũng Silicon lao dốc hàng loạt - Ảnh 1.

Ảnh: Nikkei montage

Riêng Mỹ, các trung tâm dữ liệu được dự báo sẽ tiêu thụ khoảng 4,4% tổng lượng điện của quốc gia này vào năm 2023 và dự kiến sẽ tăng lên 6,7% đến 12% tổng lượng điện của Mỹ vào năm 2028, Phòng thí nghiệm quốc gia Lawrence Berkeley cho hay.

Ngay trước khi DeepSeek ra mắt chatbot AI, Tổng thống Mỹ Donald Trump đã công bố "dự án cơ sở hạ tầng AI lớn nhất từ trước đến nay trong lịch sử" với công ty AI mới thành lập Stargate. Công ty cho biết sẽ ngay lập tức bơm 100 tỷ USD vào các cơ sở như trung tâm dữ liệu.

"Nhiều công ty lớn đang xây dựng các trung tâm dữ liệu rất lớn để chạy các thuật toán AI cực lớn này" - Paul Deane giải thích.

Vấn đề là: Việc đốt nhiên liệu hóa thạch, như khí đốt, để tạo ra điện đang thúc đẩy khí thải nhà kính gây ra tình trạng nóng lên của hành tinh.

ARXIV cho biết, chỉ riêng việc đào tạo một mô hình ngôn ngữ lớn – loại mô hình AI được chatbot Chat GPT sử dụng để tạo văn bản – trong khoảng thời gian 6 tháng sẽ thải ra 300.000kg CO2.

Theo Goldman Sachs, lượng khí thải từ trung tâm dữ liệu có thể tăng gấp đôi vào năm 2030.

Vậy còn nước thì sao?

Rất nhiều nước được sử dụng để sản xuất các vi mạch mạnh mẽ cần thiết để chạy các phép tính cực nhanh của AI. Sản xuất một con chip cần hơn 8.300 lít nước. Các chip AI cũng tỏa ra nhiều nhiệt hơn, nghĩa là các trung tâm dữ liệu cần nhiều nước hơn để giữ cho máy chủ và cơ sở của họ mát mẻ.

Nghiên cứu năm 2023 "Making AI less thirst" của Đại học California, Riverside, Mỹ phát hiện ra rằng việc đào tạo một mô hình ngôn ngữ lớn như Chat GPT-3 của OpenAI "có thể tiêu tốn hàng triệu lít nước". 

Riêng việc chạy 10 đến 50 truy vấn có thể tốn tới 500 ml. Vì vậy, yêu cầu một mô hình AI viết email công việc hoặc tạo ảnh kỳ lân trên sao Hỏa cũng giống như đổ đi nửa lít nước.

Shaolei Ren, Giáo sư kỹ thuật điện và máy tính tại Đại học California, Riverside, cho biết nếu bạn sử dụng nhiên liệu hóa thạch, nhà máy điện hạt nhân hoặc thủy điện để cung cấp điện cho các trung tâm dữ liệu thì điều này "cũng sẽ tiêu thụ một lượng nước rất lớn".

Giáo sư Shaolei Ren
Đến năm 2027, AI có thể tiên tốn 6,6 tỷ mét khối nước mỗi năm trên toàn cầu. Con số này lớn hơn khoảng 6 lần so với nhu cầu nước của Đan Mạch trong cùng một năm.

Ở những quốc gia không bị thiếu nước như Ireland, hiện tại điều này không phải là vấn đề lớn. Nhưng Giáo sư Ren cho biết "nếu chúng ta sử dụng một lượng nước khổng lồ ở Arizona (Mỹ), Tây Ban Nha hay Uruguay thì mọi chuyện lại khác".

Liệu DeepSeek có khiến AI giảm cơn khát năng lượng?

Các chuyên gia cho biết việc cải thiện hiệu quả AI có thể ít gây ảnh hưởng đến môi trường hơn, ngay cả khi nhu cầu điện năng khổng lồ của AI vẫn chưa biến mất.

Chưa kể, "khi có một công nghệ tiên tiến, hữu ích cho đại đa số người dân và có giá cả phải chăng thì mọi người sẽ sử dụng" - Vic Shao, người sáng lập DC Grid - công ty cung cấp điện một chiều không nối lưới cho các trung tâm dữ liệu và trạm sạc xe điện, cho biết.

DW của Đức thì nhận định, công nghệ DeepSeek có thể khiến những dự đoán về việc sử dụng tài nguyên ngày càng mở rộng của AI là phóng đại.

Công ty công nghệ Trung Quốc "sử dụng ít tài nguyên hơn nhiều nhưng hiệu suất lại ngang bằng với mô hình mới nhất của OpenAI. Điều đó thực sự ấn tượng", Giáo sư Ren cho biết.

DeepSeek tuyên bố công nghệ của họ hiệu quả về năng lượng và chi phí như vậy là vì họ không có quyền truy cập vào chip AI mạnh mẽ của Công ty Nvidia của Mỹ. 

Nếu DeepSeek hiệu quả đúng như những gì họ nói thì một số truy vấn AI thông thường có thể không cần trung tâm dữ liệu và có thể được chuyển sang điện thoại. Điều đó sẽ làm giảm nhu cầu điện toán và giúp các trung tâm dữ liệu trên thế giới có thêm thời gian để mở rộng quy mô các nguồn năng lượng tái tạo; và họ hoàn toàn cho thể hi vọng vào việc vừa đáp ứng hiệu suất cao, vừa bảo vệ tài nguyên, thân thiện môi trường. 

Mô hình ngôn ngữ lớn DeepSeek

Kể từ khi công ty được thành lập vào năm 2023, DeepSeek đã phát hành một loạt các mô hình AI tạo sinh. Với mỗi thế hệ mới, công ty của Trung Quốc đã nỗ lực cải thiện cả khả năng và hiệu suất của các mô hình:

  • DeepSeek Coder. Ra mt vào tháng 11/2023, đây là mô hình ngun m đầu tiên ca công ty được thiết kế riêng cho các tác v liên quan đến mã hóa.
  • DeepSeek LLM. Được phát hành vào tháng 12/2023, đây là phiên bn đầu tiên ca LLM ca công ty.
  • DeepSeek-V2. Được phát hành vào tháng 5/2024, đây là phiên bn th hai ca LLM ca công ty, tp trung vào hiu sut mnh m và chi phí đào to thp hơn.
  • DeepSeek-Coder-V2. Được phát hành vào tháng 7/2024, đây là mô hình 236 t tham s gm 128.000 mã thông báo, được thiết kế cho các th thách mã hóa phc tp.
  • DeepSeek-V3. Ra mt vào tháng 12/2024, DeepSeek-V3 có kh năng x lý nhiu tác v. Mô hình có 671 t tham s vi độ dài ng cnh là 128.000.
  • DeepSeek-R1. Ra mt vào tháng 1/2025, mô hình này da trên DeepSeek-V3 và tp trung vào các tác v suy lun nâng cao cnh tranh trc tiếp vi mô hình o1 ca OpenAI v hiu sut, đồng thi vn duy trì cu trúc chi phí thp hơn đáng k. Ging như DeepSeek-V3, mô hình có 671 t tham s vi độ dài ng cnh là 128.000.
  • Janus-Pro-7B. Ra mt vào tháng 1/2025, Janus-Pro-7B là mt mô hình th giác có kh năng hiu và to ra hình nh.

Tham khảo: Forbes, DW, AP, CNBC

Bí mật của DeepSeek: Gã khổng lồ vừa gây sốc Phố Wall, khiến Thung lũng Silicon lao dốc hàng loạt - Ảnh 2.

Đường dây nóng: 0943 113 999

Soha
Báo lỗi cho Soha

*Vui lòng nhập đủ thông tin email hoặc số điện thoại