让你事半功倍的小众Python库

作者:CQITer小编 时间:2018-11-19 16:24

字号

Python 是世界上发展最快的编程语言之一。它一次又一次地证明了自己在开发人员和跨行业的数据科学中的实用性。Python 及其机器学习库的整个生态系统使全世界的用户(无论新手或老手)都愿意选择它。Python 成功和受欢迎的原因之一是存在强大的库,这些库使 Python 极具创造力且运行快速。然而,使用 Pandas、Scikit-learn、Matplotlib 等常见库在解决一些特殊的数据问题时可能并不实用,本文介绍的这些非常见库可能更有帮助。

Python库

WGET

提取数据,特别是从网络中提取数据是数据科学家的重要任务之一。Wget 是一个免费的工具,用于以非交互式方式从 Web 上下载文件。它支持 HTTP、HTTPS 和 FTP 协议,通过 HTTP 代理进行检索。由于它是非交互式的,即使用户没有登录,它也可以在后台工作。所以,如果你想下载一个网站或一个页面上的所有图片,wget 会帮助你。

安装:

$ pip install wget 

示例:

import wget 

url = 'http://www.futurecrew.com/skaven/song_files/mp3/razorback.mp3' 

filename = wget.download(url) 

100% [................................................] 3841532 / 3841532 

filename 

'razorback.mp3' 

Pendulum

对于那些在 python 中被处理datetimes困扰的人来说,Pendulum 是个好选择。它是一个 Python 包,用于简化 datetimes 操作。它是 Python「本机」类(native class)的代替。更多内容,请参阅文档:

https://um.eustace.io/docs/# installation。

安装:

$ pip install pendulum 

示例:

import wget 

url = 'http://www.futurecrew.com/skaven/song_files/mp3/razorback.mp3' 

filename = wget.download(url) 

100% [................................................] 3841532 / 3841532 

filename 

'razorback.mp3' 

IMBALANCED-LEARN

可以看出,当每个类的样本数量相等即平衡时,大多数分类算法的工作效果最好。但现实生活中充满了不平衡的数据集,这些数据集对机器学习的学习阶段和后续预测都有影响。创建这个库是为了解决这个问题。它与 scikit-learn 兼容,并且是 scikit-learn-contrib 项目的一部分。下次遇到不平衡的数据集时,可以尝试一下。

安装:

pip install -U imbalanced-learn 

 

# or 

 

conda install -c conda-forge imbalanced-learn 

示例:

有关用法和示例,请参考:。

FLASHTEXT

在 NLP 任务中,清理文本数据通常需要替换句子中的关键词或从句子中提取关键词。通常,这样的操作可以用正则表达式来完成,但是如果要搜索的词汇量过大,操作就会变得麻烦。Python 中基于 FlashText 算法的 FlashText 模块,为这种情况提供了一个合适的替代方案。FlashText 最大的优点是搜索词数量不影响运行时长。更多相关信息请见:https://flashtext.readthedocs.io/en/latest/#。

安装:

$ pip install flashtext 

示例

提取关键词:

from flashtext import KeywordProcessor 

keyword_processor = KeywordProcessor() 

# keyword_processor.add_keyword(<unclean name><standardised name>

keyword_processor.add_keyword('Big Apple', 'New York') 

keyword_processor.add_keyword('Bay Area') 

keywords_found = keyword_processor.extract_keywords('I love Big Apple and Bay Area.') 

keywords_found 

['New York', 'Bay Area'] 

替换关键词:

keyword_processor.add_keyword('New Delhi', 'NCR region') 

new_sentence = keyword_processor.replace_keywords('I love Big Apple and new delhi.') 

new_sentence 

'I love New York and NCR region.' 

更多使用示例,请参阅官方文档。

FUZZYWUZZY

责任编辑:CQITer新闻报料:400-888-8888   本站原创,未经授权不得转载
关键词 >>Python 算法
继续阅读
热新闻
推荐
关于我们联系我们免责声明隐私政策 友情链接