在 Linux 中,使用 C++ 实现线程池的优雅扩容与缩容可以通过以下几个步骤来完成:
#include <iostream>
#include <vector>
#include <queue>
#include <thread>
#include <mutex>
#include <condition_variable>
#include <functional>
class ThreadPool {
public:
ThreadPool(size_t num_threads);
~ThreadPool();
template<class F, class... Args>
void enqueue(F&& f, Args&&... args);
private:
size_t num_threads_;
std::vector<std::thread> threads_;
std::queue<std::function<void()>> tasks_;
std::mutex mutex_;
std::condition_variable cond_;
void worker_thread();
};
ThreadPool::ThreadPool(size_t num_threads) : num_threads_(num_threads) {
for (size_t i = 0; i < num_threads_; ++i) {
threads_.emplace_back(&ThreadPool::worker_thread, this);
}
}
ThreadPool::~ThreadPool() {
{
std::unique_lock<std::mutex> lock(mutex_);
stop_ = true;
}
cond_.notify_all();
for (auto& thread : threads_) {
if (thread.joinable()) {
thread.join();
}
}
}
enqueue
函数用于将任务添加到任务队列中。template<class F, class... Args>
void ThreadPool::enqueue(F&& f, Args&&... args) {
{
std::unique_lock<std::mutex> lock(mutex_);
tasks_.emplace([f, args...] { f(args...); });
}
cond_.notify_one();
}
worker_thread
函数是每个工作线程执行的函数。它从任务队列中获取任务并执行。void ThreadPool::worker_thread() {
while (true) {
std::function<void()> task;
{
std::unique_lock<std::mutex> lock(mutex_);
cond_.wait(lock, [this] { return !tasks_.empty() || stop_; });
if (stop_ && tasks_.empty()) {
break;
}
task = std::move(tasks_.front());
tasks_.pop();
}
task();
}
}
void ThreadPool::resize(size_t new_num_threads) {
if (new_num_threads == num_threads_) {
return;
}
// 停止旧的工作线程
{
std::unique_lock<std::mutex> lock(mutex_);
stop_ = true;
}
cond_.notify_all();
for (auto& thread : threads_) {
if (thread.joinable()) {
thread.join();
}
}
// 更新工作线程数量
num_threads_ = new_num_threads;
// 启动新的工作线程
for (size_t i = 0; i < new_num_threads; ++i) {
threads_.emplace_back(&ThreadPool::worker_thread, this);
}
}
现在,你可以使用 resize
函数来优雅地扩展或缩小线程池的大小。请注意,这只是一个简单的示例,实际应用中可能需要考虑更多的因素,例如线程池的初始化、销毁和同步等。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。