Friday, 22/11/2024 | 23:04 GMT+7

Thuật toán mới giúp các máy chủ của máy tính giảm mức tiêu thụ điện

27/07/2021

Các nhà khoa học Đan Mạch mới đây đã phát triển một thuật toán có thể giúp giảm đáng kể mức tiêu thụ tài nguyên của các máy chủ máy tính trên thế giới. Nhóm tác giả đã trình bày về nghiên cứu này tại hội thảo uy tín về lý thuyết máy tính STOC 2021.


Bên trong một trung tâm dữ liệu của Google. Ảnh: dailymail.co.uk 

Một trong những mặt trái của việc sử dụng internet là nó có thể mang đến những tác động không mong muốn đối với khí hậu do lượng điện năng khổng lồ mà các máy chủ cần dùng để duy trì hoạt động. Hiện nay, lượng phát thải CO2 từ các trung tâm dữ liệu cao tương đương với lượng phát thải của giao thông đường hàng không trên toàn thế giới cộng lại.
 
Nhóm nghiên cứu này đã phát triển một thuật toán giải quyết một phần vấn đề thông qua một công thức đột phá giúp sắp xếp trình tự làm việc của các server máy tính. Các “gã khổng lồ” công nghệ như Vimeo và Google đã triển khai thuật toán này trong các hệ thống của mình, và kết quả cho thấy, thuật toán đã giúp nền tảng video online Vimeo giảm mức sử dụng băng thông của họ xuống tám lần.
 
Hiện tại, họ đã hoàn thiện được thuật toán và giải quyết được một vấn đề căn cốt của các hệ thống máy tính nhanh hơn nhiều lần so với hiện nay - đó là vấn đề một số máy chủ bị quá tải trong khi một số máy khác vẫn còn dung lượng. “Thuật toán của chúng tôi giảm được mức sử dụng năng lượng xuống thấp nhất có thể, hơn nữa, lại miễn phí để tất cả đều có thể sử dụng”, giáo sư Thorup tại Khoa Khoa học Máy tính, Đại học Copenhagen, người phát triển thuật toán cùng các đồng nghiệp Anders Aamand, Jakob Bæk Tejs Knudsen cho biết.
 
Các máy chủ (server) trở nên quá tải khi nhận được nhiều yêu cầu từ các máy trạm (client) hơn khả năng xử lý của chúng. Điều này xảy ra khi người dùng cùng dồn vào xem một video Vimeo hoặc một bộ phim trên Netflix cùng một lúc. Do đó, các hệ thống thường cần phải “di chuyển” các máy trạm nhiều lần để đạt được sự phân bố cân bằng giữa các máy chủ.
 
Sẽ cực kỳ khó thực hiện các phép tính toán cần thiết để đạt được sự cân bằng này, do có thể có đến một tỷ máy chủ tham gia vào hệ thống. Thêm nữa, hệ thống này sẽ luôn biến động khi các máy trạm và các máy chủ mới tham gia vào và rời đi. Điều này dẫn đến vấn đề tắc nghẽn và sự cố với máy chủ, cũng như tiêu thụ một lượng điện năng lớn. “Khi lưu lượng truy cập internet tăng vọt, vấn đề này sẽ càng trầm trọng hơn. Do đó, chúng ta cần có một giải pháp có thể mở rộng quy mô mà không phụ thuộc vào số lượng máy chủ tham gia. Và thuật toán của chúng tôi làm được điều đó”, Thorup giải thích.
 
Theo hãng công nghệ thông tin Cisco của Mỹ, lưu lượng truy cập internet dự kiến sẽ tăng gấp ba từ năm 2017 đến 2022. Trong năm tới, các video online sẽ chiếm 82% trong tổng lưu lượng truy cập internet.
 
Thuật toán mới bảo đảm các máy trạm sẽ được phân bố đồng đều nhất có thể giữa các máy chủ thông qua việc hạn chế “di chuyển” các máy trạm này xuống mức thấp nhất có thể, và truy xuất nội dung theo cách cục bộ nhất. Chẳng hạn, nhằm đảm bảo sự phân bố các máy trạm giữa các máy chủ một cách cân bằng và không để máy chủ nào phải “gánh” quá 10% các máy khác, thuật toán cũ xử lý bằng cách di chuyển một máy trạm 100 lần. Tuy nhiên, thuật toán mới sẽ giảm công đoạn này xuống chỉ còn 10 bước, kể cả khi có hàng tỉ máy trạm và máy chủ trong hệ thống.  
 
Các nghiên cứu đã chứng minh rằng, các trung tâm dữ liệu toàn cầu tiêu thụ đến hơn 400 terawatt giờ (TWh) điện hằng năm. Con số này chiếm khoảng 2% tổng lượng phát thải khí nhà kính trên thế giới và lượng điện năng mà các trung tâm dữ liệu tiêu thụ dự kiến sẽ còn tăng gấp đôi vào năm 2025.
 
Theo Hội đồng Đan Mạch về Biến đổi Khí hậu, riêng một trung tâm dữ liệu thuộc loại lớn cũng tiêu thụ 4% tổng lượng điện tiêu thụ của Đan Mạch.
Theo Tạp chí Tia Sáng