了解怎么样掌握python中的AdaBoost算法?这个问题可能是我们日常学习或工作经常见到的。希望通过这个问题能让你收获颇深。下面是小编给大家带来的参考内容,让我们一起来看看吧!
Python实现AdaBoost算法
计算弱分类器误差
pred_train = models[m].predict(x_train) miss = [int(x) for x in (pred_train != y_train)] error = np.dot(w, miss)
计算弱分类器的权重
theta[m] = 0.5 * np.log((1-error)/error)
更新数据权重
for i in n_train: w[i] = w[i]*np.exp(-theta[m]*y_train[i]*pred_train[i])
正规化权重
for i in n_train: w[i] /= np.sum(w[i])
最终的预测
predict = np.dot(theta, [model[m].predict(x_test) for m in range(M)])
感谢各位的阅读!看完上述内容,你们对怎么样掌握python中的AdaBoost算法大概了解了吗?希望文章内容对大家有所帮助。如果想了解更多相关文章内容,欢迎关注亿速云行业资讯频道。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。