简介:基于动态规划,利用反向搜索的方法,通过计算词语的最大"花费"给出了中文文本的切分算法,从而建立了一个能够消除中文分词中切分歧义的中文分词模型。通过对模型中算法求解的运行效率及空间耗费进行分析得出,在统计意义上,该算法具有接近与文本规模成线性关系的复杂度,空间的耗费是常数规模的。
简介:介绍了涉及集合笛卡儿积(Cartesianproduct)的运算性质讨论的一种类似于文氏图(Venndiagram)的方法.
一种中文分词的动态规划模型
集合笛卡儿积集中文氏图的一种推广