python有什么比较好的网络框架开源库。

Python011

python有什么比较好的网络框架开源库。,第1张

推荐Tornado 或者web.py

Django当然也很好,不过学习成本高一些,一把企业招聘都要求会这个。

下面是我摘录的,希望对你有用。

Tornado即是一个Web server(对此本文不作详述),同时又是一个类web.py的micro-framework,作为框架Tornado的思想主要来源于Web.py,大家在Web.py的网站首页也可以看到Tornado的大佬Bret Taylor的这么一段话(他这里说的FriendFeed用的框架跟Tornado可以看作是一个东西):

很多情况下小巧优雅的web.py足够,个人喜欢tornado,如果构建的是web应用的话更推荐tornado,tornado类似web.py的威力加强版XD,是专为webapp而生的,异步非阻塞也是node.js的主要特性之一

如果是以内容为主的网站Django是比较优秀的选择,比如blog之类的,自带的后台、表单和ORM十分方便。缺点是太大了,什么都用django自家的而不用外头的好东西,而且模块间耦合比较严重。

新手学习来说web.py和django都是不错的选择,先试试django比较好

另外如果不用django的话表单可以用wtform,类似django数据库模块的有很多,sqlalchemy比较推荐但是学习曲线不是非常好看

1、NumPy

NumPy是构建科学计算 stack 的最基础的包。它为 Python 中的 n 维数组和矩阵的操作提供了大量有用的功能。该库还提供了 NumPy 数组类型的数学运算向量化,可以提升性能,从而加快执行速度。

2、SciPy

SciPy 是一个工程和科学软件库, 包含线性代数、优化、集成和统计的模块。SciPy 库的主

要功能建立在 NumPy 的基础之上,它通过其特定的子模块提供高效的数值例程操作。SciPy 的所有子模块中的函数都有详细的文档,这也是一个优势。

3、Pandas

Pandas是一个 Python 包,旨在通过「标记(labeled)」和「关系(relational)」数据进行工作,简单直观。Pandas 是 data wrangling 的完美工具。它设计用于快速简单的数据操作、聚合和可视化。

4、Seaborn

Seaborn 主要关注统计模型的可视化这种可视化包括热度图(heat map),可以总结数据但也描绘总体分布。Seaborn 基于 Matplotlib,并高度依赖于它。

5、Bokeh

Bokeh是一个很好的可视化库,其目的是交互式可视化,不过这个库独立于 Matplotlib,它通过现代浏览器以数据驱动文档(D3.js)的风格呈现。

6、Scikits

Scikits 是 SciPy Stack 的附加软件包,专为特定功能(如图像处理和辅助机器学习)而设计。其中最突出的一个是 scikit-learn。该软件包构建于 SciPy 之上,并大量使用其数学操作,是使用 Python 进行机器学习的实际上的行业标准。

7、Theano

Theano 是一个 Python 包,它定义了与 NumPy 类似的多维数组,以及数学运算和表达式。该库是经过编译的,使其在所有架构上能够高效运行。这个库最初由蒙特利尔大学机器学习组开发,主要是为了满足机器学习的需求。

8、Keras

Keras是一个使用高层接口构建神经网络的开源库,它是用 Python 编写的。它简单易懂,具有高级可扩展性。Keras 极其容易上手,而且可以进行快速的原型设计,足以用于严肃的建模。

9、Gensim

Gensim是一个用于 Python 的开源库,实现了用于向量空间建模和主题建模的工具。Gensim 实现了诸如分层 Dirichlet 进程(HDP)、潜在语义分析(LSA)和潜在 Dirichlet 分配(LDA)等算法,还有 tf-idf、随机投影、word2vec 和 document2vec,以便于检查一组文档(通常称为语料库)中文本的重复模式。

10、Scrapy

Scrapy 是用于从网络检索结构化数据的爬虫程序的库。它现在已经发展成了一个完整的框架,可以从 API 收集数据,也可以用作通用的爬虫。该库在接口设计上遵循著名的 Don』t Repeat Yourself 原则——提醒用户编写通用的可复用的代码,因此可以用来开发和扩展大型爬虫。