Mặt trái của AI: Tiêu thụ điện năng ở mức khổng lồ

Thứ ba, 12/03/2024-15:03
Trí tuệ nhân tạo (AI) được kỳ vọng sẽ tác động đáng kể đến cuộc sống của hàng triệu người trên toàn thế giới. Tuy nhiên, công nghệ này vẫn tồn tại mặt trái khi đang ‘ngốn’ rất nhiều điện năng.

Thông tin từ trang The New Yorker cho thấy, ChatGPT (chatbot AI đình đám của OpenAI) có thể đang tiêu tốn hơn nửa triệu kilowatt-giờ (kWh) điện với mục đích đáp ứng khoảng 200 triệu truy vấn mỗi ngày từ người dùng. Cụ thể, tờ này đưa dẫn chứng cụ thể rằng, một hộ gia đình tại Mỹ sẽ sử dụng trung bình khoảng 29 kilowatt-giờ (kWh) điện mỗi ngày. Tính đơn giản, ChatGPT đã tiêu thụ lượng điện nhiều gấp 17.000 lần so với một hộ gia đình ở Mỹ mỗi ngày.

Nếu tiếp tục được cải tiến cũng như sử dụng nhiều hơn, ChatGPT nói riêng và AI tạo sinh nói chung sẽ tiêu thụ nhiều điện hơn thế. 

Theo tìm hiểu, AI tạo sinh là 1 loại AI có mục tiêu chính là tạo nên thông tin mới, thông thường sẽ là qua quá trình học máy cũng như học sâu. AI tạo sinh giúp giải quyết các nhiệm vụ cụ thể, tạo ra dữ liệu, văn bản, âm thanh, hình ảnh, video cùng nhiều loại thông tin khác.


Nếu tiếp tục được cải tiến cũng như sử dụng nhiều hơn, ChatGPT nói riêng và AI tạo sinh nói chung sẽ tiêu thụ nhiều điện hơn thế. (Ảnh minh họa)
Nếu tiếp tục được cải tiến cũng như sử dụng nhiều hơn, ChatGPT nói riêng và AI tạo sinh nói chung sẽ tiêu thụ nhiều điện hơn thế. (Ảnh minh họa)

Có một ví dụ nổi tiếng về AI tạo sinh, đó chính là mô hình ngôn ngữ lớn GPT của OpenAI. Khả năng của GPT là tạo ra văn bản mới dựa trên những dữ liệu mà nó đã được huấn luyện từ trước. Ngoài ra, AI tạo sinh có thể được sử dụng trong nhiều ứng dụng, trong đó có việc tạo văn bản, hình ảnh, âm thanh video, thậm chí là giải quyết vấn đề thuộc lĩnh vực nghệ thuật sáng tạo và cả thiết kế.

Hiểu đơn giản, nếu như Google tích hợp công nghệ AI tạo sinh vào tất cả tìm kiếm sẽ dẫn đến lượng tiêu thụ điện mỗi năm là khoảng 29 tỷ kilowatt-giờ điện. Con số này được đề cập trong một bài báo về năng lượng bền vững được đăng trên tạp chí Joule dựa theo tính toán của Alex de Vries - nhà khoa học dữ liệu của Ngân hàng Quốc gia Hà Lan. Cũng theo The New Yorker, đây là lượng điện tiêu thụ nhiều hơn cả các quốc gia như Kenya, Guatemala và Croatia tiêu thụ được trong một năm.

Chia sẻ với trang Insider, Alex de Vries cho biết:“AI tiêu tốn rất nhiều điện năng. Mỗi máy chủ AI đều có thể tiêu thụ nhiều điện năng hơn hàng chục hộ gia đình Anh cộng lại. Đây là nguyên nhân khiến con số tăng lên rất nhanh”. 

Tuy nhiên, rất khó để có thể ước tính được lượng điện tiêu thụ của ngành công nghiệp AI. Trang The Verge cho biết, đã có sự khác biệt đáng kể trong cách mà những mô hình ngôn ngữ lớn vận hành; ngoài ra những hãng công nghệ lớn (vốn đang thúc đẩy sự bùng nổ AI) cho đến nay vẫn chưa công bố chính xác về việc sử dụng năng lượng của mình.

Alex de Vries đã đưa ra tính toán sơ bộ trong bài báo của mình, dựa trên số liệu đã được công bố bởi Nvidia. Được biết, đây là hãng chip lớn nhất và giá trị nhất trên thế giới. Số liệu của hãng New Street Research cho thấy, Nvidia hiện chiếm khoảng 95% thị phần bộ xử lý đồ họa (GPU). Theo ước tính của Alex de Vries, toàn bộ lĩnh vực AI cho đến năm 2027 sẽ tiêu thụ khoảng 85 đến 134 terawatt-giờ điện (1 terawatt-giờ bằng 1 tỷ kilowatt-giờ) mỗi năm. Vị này khẳng định: “Mức tiêu thụ điện của AI có thể chiếm một nửa lượng tiêu thụ điện trên toàn thế giới vào năm 2027”.

Thậm chí, một số doanh nghiệp tiêu tốn nhiều điện năng nhất thế giới cũng chưa đạt đến con số nói trên. Tính toán của Insider dựa trên báo cáo của hãng Consumer Energy Solutions cho thấy, Samsung Electronics - ‘ông lớn’ công nghệ xứ Hàn đã sử dụng gần 23 terawatt-giờ điện mỗi năm, ‘gã khổng lồ’ công nghệ Google sử dụng hơn 12 terawatt-giờ điện mỗi năm còn Microsoft cũng ‘ngốn’ hơn 10 terawatt-giờ điện mỗi năm với mục đích vận hành các trung tâm dữ liệu, mạng và cả thiết bị người dùng.

Khiến khủng hoảng năng lượng càng thêm tồi tệ

Liên quan đến vấn đề này, Sajjad Moazeni - giáo sư kỹ thuật điện và máy tính tại Đại học Washington (Mỹ) nhận định: “Mức tiêu thụ năng lượng từ các thứ như truy vấn ChatGPT có thể sử dụng điện cao gấp 10-100 lần so với truy vấn trên email”.


Bù lại là AI vô cùng hiệu quả với những việc mà con người không thể làm được. (Ảnh minh họa)
Bù lại là AI vô cùng hiệu quả với những việc mà con người không thể làm được. (Ảnh minh họa)

Đồng quan điểm, Arijit Sengupta - người sáng lập kiêm Giám đốc điều hành Aible (công ty giải pháp AI dành cho doanh nghiệp), bổ sung:“Chúng tôi có thể chỉ mới đạt 1% mức độ áp dụng AI trong 2 - 3 năm tới. Thế giới đang hướng đến một cuộc khủng hoảng năng lượng vô cùng tồi tệ vì AI, trừ khi một số thứ được chúng ta khắc phục”.

Thực tế cho thấy, trung tâm dữ liệu chính là trái tim trong quá trình tính toán AI tiên tiến cùng hàng ngàn bộ xử lý cùng máy chủ lõi của ngành điện toán đám mây chủ yếu là do các ông lớn như Google, Microsoft và Amazon quản lý.

Liên quan đến vấn đề này, Angelo Zino - Phó chủ tịch kiêm nhà phân tích cổ phiếu cấp cao tại CFRA Research, nhận định:“Khi nhiều người nghĩ đến sự thay đổi của cuộc sống nhờ những mô hình ngôn ngữ lớn, những trung tâm dữ liệu này cũng sẽ tiêu tốn nhiều năng lượng hơn”. 

Theo thời gian, các trung tâm dữ liệu có xu hướng chuyển từ sử dụng những bộ xử lý trung tâm (CPU) sang GPU tiên tiến hơn. Được sản xuất bởi các công ty như Nvidia, AMD, GPU sẽ tiêu tốn nhiều năng lượng hơn. Phó chủ tịch Formula Monks (công ty chuyên về tư vấn công nghệ AI) tên Patrick Ward cho biết:“GPU trong thập kỷ tới sẽ trở thành cốt lõi của cơ sở hạ tầng, nó sẽ tiêu thụ lượng điện năng trên mỗi chu kỳ xử lý cao gấp 10-15 lần so với CPU. Đồng thời, mức tiêu thụ năng lượng cũng sẽ tăng thêm đáng kể trên quy mô toàn thế giới, bởi AI tiêu tốn rất nhiều điện. Tuy nhiên, bù lại là AI vô cùng hiệu quả với những việc mà con người không thể làm được”. 

Chi phí cơ sở hạ tầng ‘khủng’

Benjamin C. Lee - GS. Kỹ thuật điện và khoa học máy tính Đại học Pennsylvania cùng GS. David Brooks tại Đại học Harvard đã thực hiện một nghiên cứu. Kết quả cho thấy, trong khoảng thời gian từ năm 2015 đến 2021, mức sử dụng năng lượng của trung tâm dữ liệu tại Mỹ đã tăng trung bình 25%/năm. Đó là trước khi AI tạo sinh thu hút đông đảo sự chú ý cùng với việc sử dụng ChatGPT tăng lên mạnh mẽ.

Còn theo dữ liệu của Cơ quan Thông tin Năng lượng Mỹ (EIA) tiết lộ, tốc độ tăng trưởng hàng năm đối với việc triển khai năng lượng tái tạo là 7% cùng thời kỳ, trong khi con số dự kiến sẽ tăng lên nhờ loạt sáng kiến, trong đó có Đạo luật Giảm lạm phát (IRA).

Chia sẻ thêm về nghiên cứu này, Benjamin C. Lee cho biết:“Đã ghi nhận khoảng cách khá lớn giữa tốc độ tăng trưởng năng lượng của trung tâm dữ liệu cùng với việc triển khai năng lượng tái tạo. Những thứ đó được chúng tôi gọi là điện toán đám mây, tiêu thụ nhiều chi phí cơ sở hạ tầng”. 


Trong khoảng thời gian từ năm 2015 đến 2021, mức sử dụng năng lượng của trung tâm dữ liệu tại Mỹ đã tăng trung bình 25%/năm. (Ảnh minh họa)
Trong khoảng thời gian từ năm 2015 đến 2021, mức sử dụng năng lượng của trung tâm dữ liệu tại Mỹ đã tăng trung bình 25%/năm. (Ảnh minh họa)

Hàng loạt nhà cung cấp điện toán đám mây lớn trên thế giới như Google Cloud, Microsoft Azure hay Amazon Web Services đều đã đầu tư vào năng lượng tái tạo với mục đích phù hợp hơn với mức tiêu thụ điện của họ mỗi năm. Đồng thời, các công ty này cũng cam kết phát thải ròng sẽ về 0; điều này đồng nghĩa với việc họ sẽ loại bỏ lượng khí thải carbon mà bản thân tạo ra.

Kể từ năm 2012, Microsoft đã quảng bá trạng thái trung hòa carbon 100%, cho biết sẽ trung hòa carbon vào năm 2030. Theo dự kiến, Amazon sẽ cung cấp toàn bộ 100% năng lượng tái tạo cho các hoạt động năm 2025, như một phần của mục tiêu đạt lượng phát thải ròng bằng 0 trong năm 2040. Mục tiêu của Google là đạt phát thải thải ròng bằng 0 trong mọi hoạt động của mình trước năm 2030.

Cũng theo các nhà phân tích, việc giảm chi phí sẽ thúc đẩy AI hướng đến những giải pháp năng lượng một cách tự nhiên nhất. Cụ thể, Tegan Keele - trưởng nhóm công nghệ và dữ liệu khí hậu Mỹ thuộc KPMG nhận xét:“Dù đó là do khí thải hay hiệu quả tài chính, áp lực nhà đầu tư hoặc bất kỳ lý do gì khác, chúng tôi nhận thấy các công ty đang quan tâm nhiều hơn đến những hoạt động hiệu quả cao. Chúng ta càng làm việc hiệu quả, chi phí vận hành sẽ càng thấp”./. 

Theo: kinhdoanhvaphattrien.vn
Copy link
Chia sẻ:

Cùng chủ đề

Việc mất 10 tiếng để làm được AI hoàn thành trong 10 giây: Các sinh viên tài chính ngân hàng chuẩn bị mất việc?

Bitcoin trở thành tài sản có giá trị lớn thứ 8 toàn cầu

Kỷ nguyên công nghệ gia tăng áp lực cạnh tranh giữa các doanh nghiệp bất động sản

Hé lộ 3 kênh podcast ‘giải ngố đầu tư’ dành cho người mới bắt đầu

Top 5 bóng hồng quyền lực trong làng công nghệ thế giới

5 tiêu chí tham gia cơ chế thử nghiệm cho vay ngang hàng - P2P Lending

Gen Z “sống chất” với phong cách tài chính 4.0: Luôn biết cách “tích tiểu thành đại”, “xung phong” lan tỏa tài chính số

SK Hynix thăng tiến thần tốc nhờ AI: Được Nvidia ưu ái lựa chọn, cổ phiếu tăng bốc đầu 120%

Tin mới cập nhật

Blockchain, trí tuệ nhận tạo sẽ giúp định hình tương lai theo cách "không thể tưởng tượng nổi"

1 giờ trước

Cổ đông lo giá cổ phiếu giảm khi nhiều ngân hàng chia cổ tức

10 giờ trước

Trung tâm thương mại TP.HCM "đắt" khách thuê

10 giờ trước

Hà Nội có mức sống đắt đỏ nhất Việt Nam: Gia đình 4 người chi 30 triệu/tháng vẫn thấy thiếu

10 giờ trước

Bí quyết tạo prompt nhằm tận dụng sức mạnh của chatbot AI

11 giờ trước