diff --git a/jieba/__init__.py b/jieba/__init__.py index 5521582f..2a72ca02 100644 --- a/jieba/__init__.py +++ b/jieba/__init__.py @@ -54,11 +54,16 @@ def initialize(dictionary=DICTIONARY): trie = None _curpath=os.path.normpath( os.path.join( os.getcwd(), os.path.dirname(__file__) ) ) - print >> sys.stderr, "Building Trie..., from " + dictionary + abs_path = os.path.join(_curpath,dictionary) + print >> sys.stderr, "Building Trie..., from " + abs_path t1 = time.time() - cache_file = os.path.join(tempfile.gettempdir(),"jieba.cache") + if abs_path == os.path.join(_curpath,"dict.txt"): #defautl dictionary + cache_file = os.path.join(tempfile.gettempdir(),"jieba.cache") + else: #customer dictionary + cache_file = os.path.join(tempfile.gettempdir(),"jieba.user."+str(hash(abs_path))+".cache") + load_from_cache_fail = True - if os.path.exists(cache_file) and os.path.getmtime(cache_file)>os.path.getmtime(os.path.join(_curpath,dictionary)): + if os.path.exists(cache_file) and os.path.getmtime(cache_file)>os.path.getmtime(abs_path): print >> sys.stderr, "loading model from cache " + cache_file try: trie,FREQ,total,min_freq = marshal.load(open(cache_file,'rb')) @@ -67,7 +72,7 @@ def initialize(dictionary=DICTIONARY): load_from_cache_fail = True if load_from_cache_fail: - trie,FREQ,total = gen_trie(os.path.join(_curpath, dictionary)) + trie,FREQ,total = gen_trie(abs_path) FREQ = dict([(k,log(float(v)/total)) for k,v in FREQ.iteritems()]) #normalize min_freq = min(FREQ.itervalues()) print >> sys.stderr, "dumping model to file cache " + cache_file @@ -296,5 +301,8 @@ def disable_parallel(): def set_dictionary(dictionary_path): global initialized, DICTIONARY with DICT_LOCK: - DICTIONARY = dictionary_path + abs_path = os.path.normpath( os.path.join( os.getcwd(), dictionary_path ) ) + if not os.path.exists(abs_path): + raise Exception("path does not exists:" + abs_path) + DICTIONARY = abs_path initialized = False diff --git a/setup.py b/setup.py index 4d986dc5..d25238d7 100644 --- a/setup.py +++ b/setup.py @@ -1,6 +1,6 @@ from distutils.core import setup setup(name='jieba', - version='0.27', + version='0.28', description='Chinese Words Segementation Utilities', author='Sun, Junyi', author_email='ccnusjy@gmail.com', diff --git a/test/foobar.txt b/test/foobar.txt new file mode 100644 index 00000000..781b9097 --- /dev/null +++ b/test/foobar.txt @@ -0,0 +1 @@ +好人 12 n \ No newline at end of file diff --git a/test/test_change_dictpath.py b/test/test_change_dictpath.py new file mode 100644 index 00000000..91741e6f --- /dev/null +++ b/test/test_change_dictpath.py @@ -0,0 +1,27 @@ +#encoding=utf-8 +import sys +sys.path.append("../") +import jieba + +def cuttest(test_sent): + result = jieba.cut(test_sent) + print " ".join(result) + +def testcase(): + cuttest("这是一个伸手不见五指的黑夜。我叫孙悟空,我爱北京,我爱Python和C++。") + cuttest("我不喜欢日本和服。") + cuttest("雷猴回归人间。") + cuttest("工信处女干事每月经过下属科室都要亲口交代24口交换机等技术性器件的安装工作") + cuttest("我需要廉租房") + cuttest("永和服装饰品有限公司") + cuttest("我爱北京天安门") + cuttest("abc") + cuttest("隐马尔可夫") + cuttest("雷猴是个好网站") + +if __name__ == "__main__": + testcase() + jieba.set_dictionary("foobar.txt") + print "================================" + testcase() + diff --git a/test/test_pos2.py b/test/test_pos2.py deleted file mode 100644 index b5e3b77d..00000000 --- a/test/test_pos2.py +++ /dev/null @@ -1,99 +0,0 @@ -#encoding=utf-8 -import sys -sys.path.append("../") -import jieba -jieba.set_dictionary("/tmp/foobar.txt") -import jieba.posseg as pseg - -def cuttest(test_sent): - result = pseg.cut(test_sent) - for w in result: - print w.word, "/", w.flag, ", ", - print "" - - -if __name__ == "__main__": - cuttest("这是一个伸手不见五指的黑夜。我叫孙悟空,我爱北京,我爱Python和C++。") - cuttest("我不喜欢日本和服。") - cuttest("雷猴回归人间。") - cuttest("工信处女干事每月经过下属科室都要亲口交代24口交换机等技术性器件的安装工作") - cuttest("我需要廉租房") - cuttest("永和服装饰品有限公司") - cuttest("我爱北京天安门") - cuttest("abc") - cuttest("隐马尔可夫") - cuttest("雷猴是个好网站") - cuttest("“Microsoft”一词由“MICROcomputer(微型计算机)”和“SOFTware(软件)”两部分组成") - cuttest("草泥马和欺实马是今年的流行词汇") - cuttest("伊藤洋华堂总府店") - cuttest("中国科学院计算技术研究所") - cuttest("罗密欧与朱丽叶") - cuttest("我购买了道具和服装") - cuttest("PS: 我觉得开源有一个好处,就是能够敦促自己不断改进,避免敞帚自珍") - cuttest("湖北省石首市") - cuttest("湖北省十堰市") - cuttest("总经理完成了这件事情") - cuttest("电脑修好了") - cuttest("做好了这件事情就一了百了了") - cuttest("人们审美的观点是不同的") - cuttest("我们买了一个美的空调") - cuttest("线程初始化时我们要注意") - cuttest("一个分子是由好多原子组织成的") - cuttest("祝你马到功成") - cuttest("他掉进了无底洞里") - cuttest("中国的首都是北京") - cuttest("孙君意") - cuttest("外交部发言人马朝旭") - cuttest("领导人会议和第四届东亚峰会") - cuttest("在过去的这五年") - cuttest("还需要很长的路要走") - cuttest("60周年首都阅兵") - cuttest("你好人们审美的观点是不同的") - cuttest("买水果然后来世博园") - cuttest("买水果然后去世博园") - cuttest("但是后来我才知道你是对的") - cuttest("存在即合理") - cuttest("的的的的的在的的的的就以和和和") - cuttest("I love你,不以为耻,反以为rong") - cuttest("因") - cuttest("") - cuttest("hello你好人们审美的观点是不同的") - cuttest("很好但主要是基于网页形式") - cuttest("hello你好人们审美的观点是不同的") - cuttest("为什么我不能拥有想要的生活") - cuttest("后来我才") - cuttest("此次来中国是为了") - cuttest("使用了它就可以解决一些问题") - cuttest(",使用了它就可以解决一些问题") - cuttest("其实使用了它就可以解决一些问题") - cuttest("好人使用了它就可以解决一些问题") - cuttest("是因为和国家") - cuttest("老年搜索还支持") - cuttest("干脆就把那部蒙人的闲法给废了拉倒!RT @laoshipukong : 27日,全国人大常委会第三次审议侵权责任法草案,删除了有关医疗损害责任“举证倒置”的规定。在医患纠纷中本已处于弱势地位的消费者由此将陷入万劫不复的境地。 ") - cuttest("大") - cuttest("") - cuttest("他说的确实在理") - cuttest("长春市长春节讲话") - cuttest("结婚的和尚未结婚的") - cuttest("结合成分子时") - cuttest("旅游和服务是最好的") - cuttest("这件事情的确是我的错") - cuttest("供大家参考指正") - cuttest("哈尔滨政府公布塌桥原因") - cuttest("我在机场入口处") - cuttest("邢永臣摄影报道") - cuttest("BP神经网络如何训练才能在分类时增加区分度?") - cuttest("南京市长江大桥") - cuttest("应一些使用者的建议,也为了便于利用NiuTrans用于SMT研究") - cuttest('长春市长春药店') - cuttest('邓颖超生前最喜欢的衣服') - cuttest('胡锦涛是热爱世界和平的政治局常委') - cuttest('程序员祝海林和朱会震是在孙健的左面和右面, 范凯在最右面.再往左是李松洪') - cuttest('一次性交多少钱') - cuttest('两块五一套,三块八一斤,四块七一本,五块六一条') - cuttest('小和尚留了一个像大和尚一样的和尚头') - cuttest('我是中华人民共和国公民;我爸爸是共和党党员; 地铁和平门站') - cuttest('张晓梅去人民医院做了个B超然后去买了件T恤') - cuttest('AT&T是一件不错的公司,给你发offer了吗?') - cuttest('C++和c#是什么关系?11+122=133,是吗?PI=3.14159') - cuttest('你认识那个和主席握手的的哥吗?他开一辆黑色的士。')