这篇文章主要讲解了“怎么在Kaggle上打比赛”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“怎么在Kaggle上打比赛”吧!
Kaggle是最著名的机器学习竞赛网站。Kaggle竞赛由一个数据集组成,该数据集可以从网站上获得,需要使用机器、深度学习或其他数据科学技术来解决问题。一旦你发现了一个解决方案,你就可以把你的模型结果上传到网站上,然后网站根据你的结果对你进行排名。如果你的结果可以击败其他参赛选手,那么你可能获得现金奖励。
Kaggle是一个磨练您的机器学习和数据科学技能的好地方,您可以将自己与他人进行比较,并学习新的技术。
Kaggle最新的一项竞赛提供了一个数据集,包含推文以及一个告诉我们这些推文是否真的是关于灾难的标签。该比赛的排行榜上有近3000名参赛者,最高奖金为1万美元。
如果你还没有Kaggle账户,你可以先免费创建一个。
如果你从比赛页面选择“下载全部”,你会得到一个包含三个CSV文件的zip文件:
第一个数据文件train.csv包含一组特性及其对应的用于培训目的的目标标签。该数据集由以下属性组成:
Id: tweet的数字标识符。当我们将我们的预测上传到排行榜时,这将是非常重要的。
关键字:推文中的一个关键字,可能在某些情况下没有。
位置:发送推文的位置,这也可能不存在。
文本:推文的全文。
目标:这是我们试图预测的标签。如果这条推文真的是关于一场灾难,它将是1,如果不是,它将是0。
让我们并进一步了解这个。在下面的代码中,您将注意到我使用了一个set_option 命令。这个来自Pandas库的命令允许您控制dataframe结果显示的格式。我在这里使用这个命令,以确保显示文本列的全部内容,这使我的结果和分析更容易查看:
import pandas as pdpd.set_option('display.max_colwidth', -1)train_data = pd.read_csv('train.csv')train_data.head()
第二个数据文件test.csv是测试集,只包含特征,而没有标签。对于这个数据集,我们将预测目标标签并使用结果在排行榜上获得一个位置。
test_data = pd.read_csv('test.csv')test_data.head()
第三个文件sample_submission是示例,展示了提交文件的外观。这个文件将包含test.csv文件中的id列和我们用模型预测的目标。一旦我们创建了这个文件,我们将提交给网站,并获得一个位置的排行榜。
sample_submission = pd.read_csv('sample_submission.csv')sample_submission.head()
对于任何机器学习任务,在我们可以训练一个模型之前,我们必须执行一些数据清理和预处理。这在处理文本数据时尤为重要。
为了简化我们的第一个模型,并且由于这些列中有许多缺失的数据,我们将删除位置和关键字特性,只使用来自tweet的实际文本进行训练。我们还将删除id列,因为这对训练模型没有用处。
train_data = train_data.drop(['keyword', 'location', 'id'], axis=1)train_data.head()
我们的数据集变成这样:
文本常常包含许多特殊字符,这些字符对于机器学习算法来说不一定有意义。因此,我要采取的第一步是删除这些。我也把所有的单词都小写了。
import redef clean_text(df, text_field): df[text_field] = df[text_field].str.lower() df[text_field] = df[text_field].apply(lambda elem: re.sub(r"(@[A-Za-z0-9]+)|([^0-9A- Za-z \t])|(\w+:\/\/\S+)|^rt|http.+?", "", elem)) return dfdata_clean = clean_text(train_data, "text")data_clean.head()
另一个有用的文本清理过程是删除停止字。停止词是非常常用的词,通常传达很少的意思。在英语中,这些词包括“the”、“it”和“as”。如果我们把这些单词留在文本中,它们会产生很多噪音,这将使算法更难学习。
NLTK是用于处理文本数据的python库和工具的集合。除了处理工具之外,NLTK还拥有大量的文本语料库和词汇资源,其中包括各种语言中的所有停止词。我们将使用这个库从数据集中删除停止字。
可以通过pip安装NLTK库。安装之后,需要导入库文集,然后下载stopwords文件:
import nltk.corpusnltk.download('stopwords')
一旦这一步完成,你可以阅读停止词,并使用它来删除他们的推文。
from nltk.corpus import stopwordsstop = stopwords.words('english')data_clean['text'] = data_clean['text'].apply(lambda x: ' '.join([word for word in x.split() if word not in (stop)]))data_clean.head()
一旦清理好数据,就需要进一步的预处理,为机器学习算法的使用做好准备。
所有的机器学习算法都使用数学计算来映射特征(在我们的例子中是文本或单词)和目标变量中的模式。因此,在对机器学习模型进行训练之前,必须将文本转换为数字表示,以便进行这些计算。
这种类型的预处理有很多方法,但是在这个例子中,我将使用两个来自scikit-learn库的方法。
这个过程的第一步是将数据分割成标记或单个单词,计算每个单词在文本中出现的频率,然后将这些计数表示为一个稀疏矩阵。CountVectoriser函数可以实现这一点。
下一步是对CountVectoriser生成的字数进行加权。应用这种加权的目的是缩小文本中出现频率非常高的单词的影响,以便在模型训练中认为出现频率较低、可能信息量较大的单词很重要。TfidTransformer可以执行这个功能。
让我们把所有这些预处理和模型拟合一起放到scikit-learn流程中,看看模型是如何执行的。对于第一次尝试,我使用线性支持向量机分类器(SGDClassifier),因为这通常被认为是最好的文本分类算法之一。
from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = train_test_split(data_clean['text'],data_clean['target'],random_state = 0)from sklearn.feature_extraction.text import TfidfVectorizerfrom sklearn.pipeline import Pipelinefrom sklearn.feature_extraction.text import CountVectorizerfrom sklearn.feature_extraction.text import TfidfTransformerfrom sklearn.linear_model import SGDClassifierpipeline_sgd = Pipeline([ ('vect', CountVectorizer()), ('tfidf', TfidfTransformer()), ('nb', SGDClassifier()),])model = pipeline_sgd.fit(X_train, y_train)
让我们使用这个训练好的模型来预测我们的测试数据,并看看这个模型是如何执行的。
from sklearn.metrics import classification_reporty_predict = model.predict(X_test)print(classification_report(y_test, y_predict))
对于第一次尝试,模型执行得相当好。
现在让我们看看这个模型在竞争测试数据集上的表现,以及我们在排行榜上的排名。
首先,我们需要清除测试文件中的文本,并使用模型进行预测。下面的代码获取测试数据的副本,并执行我们应用于培训数据的相同清理。输出如下面的代码所示。
submission_test_clean = test_data.copy()submission_test_clean = clean_text(submission_test_clean, "text")submission_test_clean['text'] = submission_test_clean['text'].apply(lambda x: ' '.join([word for word in x.split() if word not in (stop)]))submission_test_clean = submission_test_clean['text']submission_test_clean.head()
接下来,我们使用模型创建预测。
submission_test_pred = model.predict(submission_test_clean)
为了创建一个提交,我们需要构造一个dataframe,它只包含来自测试集的id和我们的预测。
id_col = test_data['id']submission_df_1 = pd.DataFrame({ "id": id_col, "target": submission_test_pred})submission_df_1.head()
最后,我们将其保存为CSV文件。必须包含index=False,否则索引将被保存为文件中的一列,您的提交将被拒绝。
submission_df_1.to_csv('submission_1.csv', index=False)
一旦我们有了CSV文件,我们就可以返回比赛页面并选择提交预测按钮。这将打开一个表单,您可以上传CSV文件。添加一些关于该方法的注释是一个好主意,这样您就有了以前提交尝试的记录。
提交文件后,您将看到如下结果:
现在我们有一个成功的提交!
这个模型在排行榜上给了我0.78分,排名2371。显然还有一些改进的空间,但现在我已经有了一个未来提交的基准。
感谢各位的阅读,以上就是“怎么在Kaggle上打比赛”的内容了,经过本文的学习后,相信大家对怎么在Kaggle上打比赛这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。