python中的not具体表示是什么,举个例子说一下,衷心的感谢

Python011

python中的not具体表示是什么,举个例子说一下,衷心的感谢,第1张

在python中not是逻辑判断词,用于布尔型True和False。

布尔"非" :如果 x 为 True,返回 False 。如果 x 为 False,它返回 True。  例如:

a = 0;

b = 1;

if not ( a and b ):  

print "变量 a 和 b 都为 false,或其中一个变量为 false";

else:

print "变量 a 和 b 都为 true";

输出结果为:变量 a 和 b 都为 false,或其中一个变量为 false。

扩展资料

1、not 和 in 连接的用法:

not in ,如果在指定的序列中没有找到值返回 True,否则返回 False。x 不在 y 序列中 , 如果 x 不在 y 序列中返回 True。例如:

b = 20;

list = [1, 2, 3, 4, 5 ];

if ( b not in list ):  

print "变量 b 不在给定的列表中 list 中";

else:  

print "变量 b 在给定的列表中 list 中";

2、is 和 not 连接的用法:

is not , 是判断两个标识符是不是引用自不同对象,x is not y , 类似 id(a) != id(b)。如果引用的不是同一个对象则返回结果 True,否则返回 False。例如:

a = 20;

b = 30;

if ( a is not b ):  

print "4 - a 和 b 没有相同的标识";

else:  

print "4 - a 和 b 有相同的标识";

python做中文分词处理主要有以下几种:结巴分词、NLTK、THULAC

1、fxsjy/jieba

结巴的标语是:做最好的 Python 中文分词组件,或许从现在来看它没做到最好,但是已经做到了使用的人最多。结巴分词网上的学习资料和使用案例比较多,上手相对比较轻松,速度也比较快。

结巴的优点:

支持三种分词模式

支持繁体分词

支持自定义词典

MIT 授权协议

2、THULAC:一个高效的中文词法分析工具包

前两天我在做有关于共享单车的用户反馈分类,使用jieba分词一直太过零散,分类分不好。后来江兄给我推荐了THULAC: 由清华大学自然语言处理与社会人文计算实验室研制推出的一套中文词法分析工具包 。THULAC的接口文档很详细,简单易上手。

THULAC分词的优点:

能力强。利用规模最大的人工分词和词性标注中文语料库(约含5800万字)训练而成,模型标注能力强大。

准确率高。该工具包在标准数据集Chinese Treebank(CTB5)上分词的F1值可达97.3%,词性标注的F1值可达到92.9%

速度较快。同时进行分词和词性标注速度为300KB/s,每秒可处理约15万字。只进行分词速度达到1.3MB/s,速度比jieba慢

Python 解决中文编码问题基本可以用以下逻辑:

utf8(输入) ——>unicode(处理) ——>(输出)utf8

Python 里面处理的字符都是都是unicode 编码,因此解决编码问题的方法是把输入的文本(无论是什么编码)解码为(decode)unicode编码,然后输出时再编码(encode)成所需编码。

由于处理的一般为txt 文档,所以最简单的方法,是把txt 文档另存为utf-8 编码,然后使用Python 处理的时候解码为unicode(sometexts.decode('utf8')),输出结果回txt 的时候再编码成utf8(直接用str() 函数就可以了)。

import re

File=open('文本.txt',encoding='utf-8')

#读取全部内容

s=File.readlines()

#转化成字符串

s=str(s)

#统计'NN'的数量

NN=len(re.findall(r"'NN'",s))

print(NN)