搜档网
当前位置:搜档网 › 文本功能和分类

文本功能和分类

文本功能和分类
文本功能和分类

2.4Text CIassification

One of the most important theories in the book Groundworkfor a General Theory

of Translation coauthored by Reiss and V ermeer is Reiss?theory of text types.According to Reiss,text typology helps the translator specify the appropriate hierarchy of equivalence levels needed for a particular translation Skopos.Based on the dominant communicative functions,texts are categorized into informative texts,expressive texts and operative texts.

The main function of informative texts is to inform the readers about objects and Phenomena in the real world.The choices of linguistic and stylistic forms are subordinate tO this function.In a translation where both the source text and the target text are informative,the translator should attempt to represent the original text correctly and completely.The translator should be guided by the dominant norms of the target language and culture in terms of stylistic choices.In a more recent description of her typology,geiss points out that the informative texts also

include……purely phatic communication,where the actual information value is zero and the message is the communication process itself?(Reiss,qtd.in Nord,2001:38).

Expressive texts can produce an aesthetic feeling on the reader and this effect has to be taken into account in translation.In such texts,the informative aspect is complemented or even overruled by the aesthetic aspects.If the target text is aimed to fall into the same category as the source text,the translator of an expressive text should manage to produce an analogous stylistic effect as the original.

In operative texts,“both content and form are subordinate to the extralinguistic effect that the text is designed to achieve”(Nord,2001:38).Ifthetarget text is meant to belong to the same category,the translator of an operative text should attempt to bring the same reaction in the target audience regardless of changing the content and/or stylistic features of the original.

2.2Text Functions

Related to the text type is the text function.Nord suggests four types of text

functions:referential function;expressive function;appellative function and phatic function.The referential function iS similar to the function of the informative text.The referential function is mainly expressed by the denotative value of the lexical items in

the text.IIl orderto make the referential function clear,the translator should coordinate

the message with the model of the particular world involved which is determined by

Cultural perspectives and traditions.As have mentioned above,according to Reiss’S text typology,the expressive function is restricted to the aesthetic aspects of literary or poetic texts.Differently,the expressive function in Nord’S model refers to the sender’S

attitude toward the objects and phenomena of the world.One point should be given

more attention is that the expressive function is sender-oriented.The sender’S opinions

and attitudes are based on the value system of his own culture.hl intercultural

interaction,if the source culture and the target culture are different,then problem will

arise.For example,“hl India if a man compares the eyes of his wife to those of a cow,

he expressed admiration for their beauty.In Germany,though,a woman would not be

very pleased if her husband did the same”(Nord,2001:42).Appellative function means

the Use of language to make the receiver feel to do something.Here the appellative corresponds with operative in Reiss’S typology.Different from the expressive function, Appellative function is receiver-oriented.“While the source text normally appeals to a

source-culture reader’S susceptibility and experience,the appellative function of a translation is

bound to have a different target.This means the appellative function will not work if the receiver cannot cooperate'’(Nord ,001:43).So when translating this kind of text,the translator should pay much more attention to the different cultures and traditions ofthe target readers in order to achievethe same reaction in the receivers.The phatic function means establishing,maintaining or ending contact between senders and receivers.It depends on the conventionality of the linguistic,non-linguistic and

paralinguistic means used in a particular situation.

In all,the text types and the text functions play important roles in the translation process.It can help translators have a better understanding of the source text and render a satisfactory target text.And it makes good Sense to clarify the intended communicative function ofthe target text which call serve as a guideline for translation.

文本分类入门(五)训练Part 2

将样本数据成功转化为向量表示之后,计算机才算开始真正意义上的“学习”过程。 再重复一次,所谓样本,也叫训练数据,是由人工进行分类处理过的文档集合,计算机认为这些数据的分类是绝对正确的,可以信赖的(但某些方法也有针对训练数据可能有错误而应对的措施)。接下来的一步便是由计算机来观察这些训练数据的特点,来猜测一个可能的分类规则(这个分类规则也可以叫做分类器,在机器学习的理论著作中也叫做一个“假设”,因为毕竟是对真实分类规则的一个猜测),一旦这个分类满足一些条件,我们就认为这个分类规则大致正确并且足够好了,便成为训练阶段的最终产品——分类器!再遇到新的,计算机没有见过的文档时,便使用这个分类器来判断新文档的类别。 举一个现实中的例子,人们评价一辆车是否是“好车”的时候,可以看作一个分类问题。我们也可以把一辆车的所有特征提取出来转化为向量形式。在这个问题中词典向量可以为: D=(价格,最高时速,外观得分,性价比,稀有程度) 则一辆保时捷的向量表示就可以写成 vp=(200万,320,9.5,3,9) 而一辆丰田花冠则可以写成 vt=(15万,220,6.0,8,3) 找不同的人来评价哪辆车算好车,很可能会得出不同的结论。务实的人认为性价比才是评判的指标,他会认为丰田花冠是好车而保时捷不是;喜欢奢华的有钱人可能以稀有程度来评判,得出相反的结论;喜欢综合考量的人很可能把各项指标都加权考虑之后才下结论。

可见,对同一个分类问题,用同样的表示形式(同样的文档模型),但因为关注数据不同方面的特性而可能得到不同的结论。这种对文档数据不同方面侧重的不同导致了原理和实现方式都不尽相同的多种方法,每种方法也都对文本分类这个问题本身作了一些有利于自身的假设和简化,这些假设又接下来影响着依据这些方法而得到的分类器最终的表现,可谓环环相连,丝丝入扣,冥冥之中自有天意呀(这都什么词儿……)。 比较常见,家喻户晓,常年被评为国家免检产品(?!)的分类算法有一大堆,什么决策树,Rocchio,朴素贝叶斯,神经网络,支持向量机,线性最小平方拟合,kNN,遗传算法,最大熵,Generalized Instance Set等等等等(这张单子还可以继续列下去)。在这里只挑几个最具代表性的算法侃一侃。Rocchio算法 Rocchio算法应该算是人们思考文本分类问题时最先能想到,也最符合直觉的解决方法。基本的思路是把一个类别里的样本文档各项取个平均值(例如把所有“体育”类文档中词汇“篮球”出现的次数取个平均值,再把“裁判”取个平均值,依次做下去),可以得到一个新的向量,形象的称之为“质心”,质心就成了这个类别最具代表性的向量表示。再有新文档需要判断的时候,比较新文档和质心有多么相像(八股点说,判断他们之间的距离)就可以确定新文档属不属于这个类。稍微改进一点的Rocchio算法不尽考虑属于这个类别的文档(称为正样本),也考虑不属于这个类别的文档数据(称为负样本),计算出来的质心尽量靠近正样本同时尽量远离负样本。Rocchio算法做了两个很致命的假设,使得它的性能出奇的差。一是它认为一个类别的文档仅仅聚集在一个质心的周围,实际情况往往不是如此(这样的数据称为线性不可分的);二是它假设训练数据是绝

文本分类综述

山西大学研究生学位课程论文(2014 ---- 2015 学年第 2 学期) 学院(中心、所):计算机与信息技术学院 专业名称:计算机应用技术 课程名称:自然语言处理技术 论文题目:文本分类综述 授课教师(职称):王素格(教授) 研究生姓名:刘杰飞 年级:2014级 学号:201422403003 成绩: 评阅日期: 山西大学研究生学院 2015年 6 月2日

文本分类综述 摘要文本分类就是在给定的分类体系下,让计算机根据给定文本的内容,将其判别为事先确定的若干个文本类别中的某一类或某几类的过程。文本分类在冗余过滤、组织管理、智能检索、信息过滤、元数据提取、构建索引、歧义消解、文本过滤等方面有很重要的应用。本文主要介绍文本分类的研究背景,跟踪国内外文本分类技术研究动态。介绍目前文本分类过程中的一些关键技术,以及流形学习在文本分类中降维的一些应用。并且讨论目前文本分类研究面临的一些问题,及对未来发展方向的一些展望。 关键词文本分类;特征选择;分类器;中文信息处理 1.引言 上世纪九十年代以来,因特网以惊人的速度发展起来,到现在我们进入大数据时代互联网容纳了海量的各种类型的数据和信息,包括文本、声音、图像等。这里所指的文本可以是媒体新闻、科技、报告、电子邮件、技术专利、网页、书籍或其中的一部分。文本数据与声音和图像数据相比,占用网络资源少,更容易上传和下载,这使得网络资源中的大部分是以文本(超文本)形式出现的。如何有效地组织和管理这些信息,并快速、准确、全面地从中找到用户所需要的信息是当前信息科学和技术领域面临的一大挑战。基于机器学习的文本分类系统作为处理和组织大量文本数据的关键技术,能够在给定的分类模型下,根据文本的内容自动对文本分门别类,从而更好地帮助人们组织文本、挖掘文本信息,方便用户准确地定位所需的信息和分流信息。 利用文本分类技术可以把数量巨大但缺乏结构的文本数据组织成规范的文本数据,帮助人们提高信息检索的效率。通过对文本信息进行基于内容的分类,自动生成便于用户使用的文本分类系统,从而可以大大降低组织整理文档耗费的人力资源,帮助用户快速找到所需信息。因此文本分类技术得到日益广泛的关注,成为信息处理领域最重要的研究方向之一。 2.文本分类技术的发展历史及现状 2.1文本分类技术发展历史 国外自动分类研究始于1950年代末,早期文本分类主要是基于知识工程,通过手工定义一些规则来对文本进行分类,这种方法费时费力,还需要对某一领域有足够的了解,才能提炼出合适的规则。H.P.Luhn在这一领域进行了开创性的研究,他将词频统计的思想用于文本分类中。这一时期,主要是分类理论的研究,并将文本分类应用用于信息检索。在这一段时期,提出了很多经典文本分类的数学模型。比如1960年Maron在Journal of ASM上发表了有关自动分类的第一篇论文“On relevance Probabilitic indexing and informarion retriral”,这是Maron和Kuhns提出概的率标引(Probabilitic indexing )模型在信息检

SVM支持向量机白话入门

(一)SVM的八股简介 支持向量机(Support Vector Machine)是Cortes和Vapnik于1995年首先提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中[10]。 支持向量机方法是建立在统计学习理论的VC 维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度,Accuracy)和学习能力(即无错误地识别任意样本的能力)之间寻求最佳折衷,以期获得最好的推广能力[14](或称泛化能力)。 以上是经常被有关SVM 的学术文献引用的介绍,有点八股,我来逐一分解并解释一下。 Vapnik是统计机器学习的大牛,这想必都不用说,他出版的《Statistical Learning Theory》是一本完整阐述统计机器学习思想的名著。在该书中详细的论证了统计机器学习之所以区别于传统机器学习的本质,就在于统计机器学习能够精确的给出学习效果,能够解答需要的样本数等等一系列问题。与统计机器学习的精密思维相比,传统的机器学习基本上属于摸着石头过河,用传统的机器学习方法构造分类系统完全成了一种技巧,一个人做的结果可能很好,另一个人差不多的方法做出来却很差,缺乏指导和原则。 所谓VC维是对函数类的一种度量,可以简单的理解为问题的复杂程度,VC 维越高,一个问题就越复杂。正是因为SVM关注的是VC维,后面我们可以看到,SVM解决问题的时候,和样本的维数是无关的(甚至样本是上万维的都可以,这使得SVM很适合用来解决文本分类的问题,当然,有这样的能力也因为引入了核函数)。 结构风险最小听上去文绉绉,其实说的也无非是下面这回事。

基于机器学习的文本分类方法

基于机器学习算法的文本分类方法综述 摘要:文本分类是机器学习领域新的研究热点。基于机器学习算法的文本分类方法比传统的文本分类方法优势明显。本文综述了现有的基于机器学习的文本分类方法,讨论了各种方法的优缺点,并指出了文本分类方法未来可能的发展趋势。 1.引言 随着计算机技术、数据库技术,网络技术的飞速发展,Internet的广泛应用,信息交换越来越方便,各个领域都不断产生海量数据,使得互联网数据及资源呈现海量特征,尤其是海量的文本数据。如何利用海量数据挖掘出有用的信息和知识,方便人们的查阅和应用,已经成为一个日趋重要的问题。因此,基于文本内容的信息检索和数据挖掘逐渐成为备受关注的领域。文本分类(text categorization,TC)技术是信息检索和文本挖掘的重要基础技术,其作用是根据文本的某些特征,在预先给定的类别标记(label)集合下,根据文本内容判定它的类别。传统的文本分类模式是基于知识工程和专家系统的,在灵活性和分类效果上都有很大的缺陷。例如卡内基集团为路透社开发的Construe专家系统就是采用知识工程方法构造的一个著名的文本分类系统,但该系统的开发工作量达到了10个人年,当需要进行信息更新时,维护非常困难。因此,知识工程方法已不适用于日益复杂的海量数据文本分类系统需求[1]。20世纪90年代以来,机器学习的分类算法有了日新月异的发展,很多分类器模型逐步被应用到文本分类之中,比如支持向量机(SVM,Support Vector Machine)[2-4]、最近邻法(Nearest Neighbor)[5]、决策树(Decision tree)[6]、朴素贝叶斯(Naive Bayes)[7]等。逐渐成熟的基于机器学习的文本分类方法,更注重分类器的模型自动挖掘和生成及动态优化能力,在分类效果和灵活性上都比之前基于知识工程和专家系统的文本分类模式有所突破,取得了很好的分类效果。 本文主要综述基于机器学习算法的文本分类方法。首先对文本分类问题进行概述,阐述文本分类的一般流程以及文本表述、特征选择方面的方法,然后具体研究基于及其学习的文本分类的典型方法,最后指出该领域的研究发展趋势。 2.文本自动分类概述 文本自动分类可简单定义为:给定分类体系后,根据文本内容自动确定文本关联的类别。从数学角度来看,文本分类是一个映射过程,该映射可以是一一映射,也可以是一对多映射过程。文本分类的映射规则是,系统根据已知类别中若干样本的数据信息总结出分类的规律性,建立类别判别公式或判别规则。当遇到新文本时,根据总结出的类别判别规则确定文本所属的类别。也就是说自动文本分类通过监督学习自动构建出分类器,从而实现对新的给定文本的自动归类。文本自动分类一般包括文本表达、特征选取、分类器的选择与训练、分类等几个步骤,其中文本表达和特征选取是文本分类的基础技术,而分类器的选择与训练则是文本自动分类技术的重点,基于机器学习的文本分来就是通过将机器学习领域的分类算法用于文本分类中来[8]。图1是文本自动分类的一般流程。

文本分类入门(十一)特征选择方法之信息增益

前文提到过,除了开方检验(CHI)以外,信息增益(IG,Information Gain)也是很有效的特征选择方法。但凡是特征选择,总是在将特征的重要程度量化之后再进行选择,而如何量化特征的重要性,就成了各种方法间最大的不同。开方检验中使用特征与类别间的关联性来进行这个量化,关联性越强,特征得分越高,该特征越应该被保留。 在信息增益中,重要性的衡量标准就是看特征能够为分类系统带来多少信息,带来的信息越多,该特征越重要。 才因此先回忆一下信息论中有关信息量(就是“熵”)的定义。说有这么一个变量X,它可能的取值有n 多种,分别是x1,x2,……,x n,每一种取到的概率分别是P1,P2,……,P n,那么X的熵就定义为: 意思就是一个变量可能的变化越多(反而跟变量具体的取值没有任何关系,只和值的种类多少以及发生概率有关),它携带的信息量就越大(因此我一直觉得我们的政策法规信息量非常大,因为它变化很多,基本朝令夕改,笑)。 对分类系统来说,类别C是变量,它可能的取值是C1,C2,……,C n,而每一个类别出现的概率是P (C1),P(C2),……,P(C n),因此n就是类别的总数。此时分类系统的熵就可以表示为: 有同学说不好理解呀,这样想就好了,文本分类系统的作用就是输出一个表示文本属于哪个类别的值,而这个值可能是C1,C2,……,C n,因此这个值所携带的信息量就是上式中的这么多。 信息增益是针对一个一个的特征而言的,就是看一个特征t,系统有它和没它的时候信息量各是多少,两者的差值就是这个特征给系统带来的信息量,即增益。系统含有特征t的时候信息量很好计算,就是刚才的式子,它表示的是包含所有特征时系统的信息量。 问题是当系统不包含t时,信息量如何计算?我们换个角度想问题,把系统要做的事情想象成这样:说教室里有很多座位,学生们每次上课进来的时候可以随便坐,因而变化是很大的(无数种可能的座次情

人工智能与健康图文稿

人工智能与健康

2019年度人工智能与健康 1.如果一个人体检时发现乳腺癌1号基因发生突变,可以推断出()。( 2.0分) A.这个人患乳腺癌的概率增加了 B.这个人已经患了乳腺癌 C.这个人一定会患乳腺癌 D.这个人很快会被检查出乳腺癌 我的答案:A√答对 2.医学上用百分位法来判定孩子是否属于矮小。如果一个孩子的身高低于同种族、同年龄、同性别正常健康儿童身高的第()百分位数,医学上称之为矮小。(2.0分) A.1 B.2 C.3 D.4 我的答案:C√答对 3.在()年,AlphaGo战胜世界围棋冠军李世石。(2.0分) A.2006 B.2012 C.2016 D.2017 我的答案:C√答对 4.人工智能是()的一个分支,它试图揭示人类智能的实质和真相,并以模拟人类智能的方式去赋能机器,使机器能够模拟人类的智能进行学习、思维、推理、决策和行动。(2.0分) A.自然科学 B.社会科学 C.语言科学 D.计算机科学

我的答案:D√答对 5.古代把计量叫“度量衡”,其中,“衡”是测量()的过程。(2.0分) A.长度 B.容积 C.温度 D.轻重 我的答案:D√答对 6.据2005年美国一份癌症统计报告表明,在女性的所有死亡原因中,排在第二位的是()。(2.0分) A.肺癌 B.肝癌 C.乳腺癌 D.淋巴癌 我的答案:C√答对 7.1997年,Hochreiter&Schmidhuber提出()。(2.0分) A.反向传播算法 B.深度学习 C.博弈论 D.长短期记忆模型 我的答案:D√答对 8.()是自然语言处理的重要应用,也可以说是最基础的应用。(2.0分) A.文本识别 B.机器翻译 C.文本分类 D.问答系统 我的答案:C√答对 9.()是一种基于树结构进行决策的算法。(2.0分) A.轨迹跟踪

文本分类中的特征提取和分类算法综述

文本分类中的特征提取和分类算法综述 摘要:文本分类是信息检索和过滤过程中的一项关键技术,其任务是对未知类别的文档进行自动处理,判别它们所属于的预定义类别集合中的类别。本文主要对文本分类中所涉及的特征选择和分类算法进行了论述,并通过实验的方法进行了深入的研究。 采用kNN和Naive Bayes分类算法对已有的经典征选择方法的性能作了测试,并将分类结果进行对比,使用查全率、查准率、F1值等多项评估指标对实验结果进行综合性评价分析.最终,揭示特征选择方法的选择对分类速度及分类精度的影响。 关键字:文本分类特征选择分类算法 A Review For Feature Selection And Classification Algorithm In Text Categorization Abstract:Text categorization is a key technology in the process of information retrieval and filtering,whose task is to process automatically the unknown categories of documents and distinguish the labels they belong to in the set of predefined categories. This paper mainly discuss the feature selection and classification algorithm in text categorization, and make deep research via experiment. kNN and Native Bayes classification algorithm have been applied to test the performance of classical feature detection methods, and the classification results based on classical feature detection methods have been made a comparison. The results have been made a comprehensive evaluation analysis by assessment indicators, such as precision, recall, F1. In the end, the influence feature selection methods have made on classification speed and accuracy have been revealed. Keywords:Text categorization Feature selection Classification algorithm

文本分类入门(八)中英文文本分类的异同

从文本分类系统的处理流程来看,无论待分类的文本是中文还是英文,在训练阶段之前都要经过一个预处理的步骤,去除无用的信息,减少后续步骤的复杂度和计算负担。 对中文文本来说,首先要经历一个分词的过程,就是把连续的文字流切分成一个一个单独的词汇(因为词汇将作为训练阶段“特征”的最基本单位),例如原文是“中华人民共和国今天成立了”的文本就要被切分成“中华/人民/共和国/今天/成立/了”这样的形式。而对英文来说,没有这个步骤(更严格的说,并不是没有这个步骤,而是英文只需要通过空格和标点便很容易将一个一个独立的词从原文中区分出来)。中文分词的效果对文本分类系统的表现影响很大,因为在后面的流程中,全都使用预处理之后的文本信息,不再参考原始文本,因此分词的效果不好,等同于引入了错误的训练数据。分词本身也是一个值得大书特书的问题,目前比较常用的方法有词典法,隐马尔科夫模型和新兴的CRF方法。 预处理中在分词之后的“去停止词”一步对两者来说是相同的,都是要把语言中一些表意能力很差的辅助性文字从原始文本中去除,对中文文本来说,类似“我们”,“在”,“了”,“的”这样的词汇都会被去除,英文中的“ an”,“in”,“the”等也一样。这一步骤会参照一个被称为“停止词表”的数据(里面记录了应该被去除的词,有可能是以文件形式存储在硬盘上,也有可能是以数据结构形式放在内存中)来进行。 对中文文本来说,到此就已初审合格,可以参加训练了(笑)。而英文文本还有进一步简化和压缩的空间。我们都知道,英文中同一个词有所谓词形的变化(相对的,词义本身却并没有变),例如名词有单复数的变化,动词有时态的变化,形容词有比较级的变化等等,还包括这些变化形式的某种组合。而正因为词义本身没有变化,仅仅词形不同的词就不应该作为独立的词来存储和和参与分类计算。去除这些词形不同,但词义相同的词,仅保留一个副本的步骤就称为“词根还原”,例如在一篇英文文档中,经过词根还原后,“computer”,“compute”,“computing”,“computational”这些词全都被处理成“compute”(大小写转换也在这一步完成,当然,还要记下这些词的数目作为compute的词频信息)。 经过预处理步骤之后,原始文档转换成了非常节省资源,也便于计算的形式,后面的训练阶段大同小异(仅仅抽取出的特征不同而已,毕竟,一个是中文词汇的集合,一个是英文词汇的集合嘛)。 下一章节侃侃分类问题本身的分类。

中文文本分类算法设计及其实现_毕业设计

毕业设计(论文)任务书 毕业设计(论文) 题目中文文本分类算法的设计及其实现 电信学院计算机系84班设计所在单位西安交通大学计算机系

西安交通大学本科毕业设计(论文) 毕业设计(论文)任务书 电信学院计算机系84 班学生丰成平 毕业设计(论文)工作自2013 年 2 月21 日起至2013 年 6 月20 日止毕业设计(论文)进行地点:西安交通大学 课题的背景、意义及培养目标 随着文本文件的增多,对其自动进行分门别类尤为重要。文本分类是指采用计算机程序对文本集按照一定的分类体系进行自动分类标记。文本分类器的设计通常包括文本的特征向量表示、文本特征向量的降维、以及文本分类器的设计与测试三个方面。本毕设论文研究文本分类器的设计与实现。通过该毕业设计,可使学生掌握文本分类器设计的基本原理及相关方法,并通过具体文本分类算法的设计与编程实现,提高学生的实际编程能力。 设计(论文)的原始数据与资料 1、文本语料库(分为训练集与测试集语料库)。 2、关于文本分类的各种文献(包括特征表示、特征降维、以及分类器设计)以及资料。 3、中科院文本分词工具(nlpir)。 4、文本分类中需要用到的各种分类方法的资料描述。 课题的主要任务 1.学习文本特征向量的构建方法及常用的降维方法。 2.学习各种分类器的基本原理及其训练与测试方法。 3.设计并编程实现文本分类器。

毕业设计(论文)任务书 4、对试验结果进行分析,得出各种结论。 5、撰写毕业论文。 6、翻译一篇关于文本分类的英文文献。 课题的基本要求(工程设计类题应有技术经济分析要求) 1、程序可演示。 2、对源代码进行注释。 3、给出完整的设计文档及测试文档。 完成任务后提交的书面材料要求(图纸规格、数量,论文字数,外文翻译字数等) 1、提交毕业论文 2、提交设计和实现的系统软件源程序及有关数据 3、提交外文资料翻译的中文和原文资料 主要参考文献: 自然语言处理与信息检索共享平台:https://www.sodocs.net/doc/2f14474411.html,/?action-viewnews-itemid-103 Svm(支持向量机)算法:https://www.sodocs.net/doc/2f14474411.html,/zhenandaci/archive/2009/03/06/258288.html 基于神经网络的中文文本分析(赵中原):https://www.sodocs.net/doc/2f14474411.html,/p-030716713857.html TF-IDF的线性图解:https://www.sodocs.net/doc/2f14474411.html,/blog-170225-6014.html 东南大学向量降维文献:https://www.sodocs.net/doc/2f14474411.html,/p-690306037446.html 指导教师相明 接受设计(论文)任务日期2013-02-21~2013-06-20 学生签名:

中文文本分类语料

中文文本分类语料 文本自动分类就是用电脑对文本按照一定的分类体系或标准进行自动分类标记。 文本分类问题与其它分类问题没有本质上的区别,其方法可以归结为根据待分类数据的某些特征来进行匹配,当然完全的匹配是不太可能的,因此必须(根据某种评价标准)选择最优的匹配结果,从而完成分类。现如今,统计学习方法已经成为了文本分类领域绝对的主流。 统计学习方法需要一批由人工进行了准确分类的文档作为学习的材料(称为训练集,注意由人分类一批文档比从这些文档中总结出准确的规则成本要低得多),计算机从这些文档中挖掘出一些能够有效分类的规则,这个过程被形象的称为训练,而总结出的规则集合常常被称为分类器。训练完成之后,需要对计算机从来没有见过的文档进行分类时,便使用这些分类器来进行。 下面提供一些网上能下载到的中文的好语料,供研究人员学习使用。 1.中科院自动化所的中英文新闻语料库https://www.sodocs.net/doc/2f14474411.html,/data/13484 中文新闻分类语料库从凤凰、新浪、网易、腾讯等版面搜集。英语新闻分类语料库为Reuters-21578的ModApte版本。 2.搜狗的中文新闻语料库https://www.sodocs.net/doc/2f14474411.html,/labs/dl/c.html 包括搜狐的大量新闻语料与对应的分类信息。有不同大小的版本可以下载。 3.李荣陆老师的中文语料库 https://www.sodocs.net/doc/2f14474411.html,/data/11968 压缩后有240M大小 4.谭松波老师的中文文本分类语料https://www.sodocs.net/doc/2f14474411.html,/data/11970 不仅包含大的分类,例如经济、运动等等,每个大类下面还包含具体的小类,例如运动包含篮球、足球等等。能够作为层次分类的语料库,非常实用。 5.网易分类文本数据https://www.sodocs.net/doc/2f14474411.html,/data/11965 包含运动、汽车等六大类的4000条文本数据。 6.中文文本分类语料https://www.sodocs.net/doc/2f14474411.html,/data/11963 包含Arts、Literature等类别的语料文本。 7.更全的搜狗文本分类语料 https://www.sodocs.net/doc/2f14474411.html,/labs/dl/c.html 搜狗实验室发布的文本分类语料,有不同大小的数据版本供免费下载 8.2002年中文网页分类训练集https://www.sodocs.net/doc/2f14474411.html,/data/15021 2002年秋天北京大学网络与分布式实验室天网小组通过动员不同专业的几十个学生,人工选取形成了一个全新的基于层次模型的大规模中文网页样本集。它包括11678个训练网页实例和3630个测试网页实例,分布在11个大类别中。

贝叶斯算法(文本分类算法)java源码

package com.vista; import java.io.IOException; import jeasy.analysis.MMAnalyzer; /** * 中文分词器 */ public class ChineseSpliter { /** * 对给定的文本进行中文分词 * @param text 给定的文本 * @param splitToken 用于分割的标记,如"|" * @return 分词完毕的文本 */ public static String split(String text,String splitToken) { String result = null; MMAnalyzer analyzer = new MMAnalyzer(); try { result = analyzer.segment(text, splitToken); } catch (IOException e) { e.printStackTrace(); } return result; } } 停用词处理 去掉文档中无意思的词语也是必须的一项工作,这里简单的定义了一些常见的停用词,并根据这些常用停用词在分词时进行判断。 package com.vista;

/** * 停用词处理器 * @author phinecos * */ public class StopWordsHandler { private static String stopWordsList[] ={"的", "我们","要","自己","之","将","“","”",",","(",")","后","应","到","某","后","个","是","位","新","一","两","在","中","或","有","更","好",""};//常用停用词public static boolean IsStopWord(String word) { for(int i=0;i

人工智能在自动文本分类系统中的应用研究

人工智能在自动文本分类系统中的应用研究摘要:人工智能与信息社会人工智能研究的就是怎样利用机器模仿人脑从事推理规 划、设计、思考、学习等思维活动。文本分类是指在给定分类体系下, 根据文本内容(自动) 确定文本类别的过程。该文阐述了自动文本分类分类在利用人工智能技术设计时的必要性 和重要性,通过对当前具有代表性的分类算法原理进行分析、比较, 总结出每种算法的性 能特征, 既便于使用者了解掌握各种分类算法、更好地选择合适的算法, 又便于研究者对 算法进行研究改进, 提出性能更好的分类算法。 关键词:人工智能;分类; 文本分类; 分类方法 1 引言 数据的丰富带来了对强有力的数据分析工具的需求, 大量的数据被描述为“数据丰富, 但信息贫乏”。快速增长的海量数据收集、存放在大型和大量的数据库中, 没有强有力的 工具, 理解它们已经远远超出了人的能力。 人工智能的一个重要支柱是数据挖掘技术。数据挖掘一开始只是一种从大规模数据库或数据仓库中提取隐藏的预测性信息的科学方法。它让人们有能力最终认识数据的真正价值,即数据中潜在的可用信息和知识。数据挖掘是数据库知识发现的核心步骤,它研究的主要目标是发展有关的方法论、理论工具,以支持从大量数据中提取有用的和让人们感兴趣的知识、模式和规则。其主要研究内容包括基础理论、发现算法、数据仓库、可视化技术、定性定量互换模型、知识表示方法、知识分类算法、半结构化和非结构化数据中的知识发 现以及网上数据挖掘等 而分类作为数据挖掘的一种模式, 可以用于提取描述重要数据的模型, 通常是预测分 类标号( 或离散值) 。例如, 可以建立一个分类模型, 对银行贷款的安全或风险进行分 类。许多分类的方法已被机器学习、专家系统、统计学和神经生物学方面的研究者提出。 文本自动分类技术是自然语言处理的一个重要的应用领域, 是替代传统的繁杂人工分 类方法的有效手段和必然趋势,特别是随着互联网技术的发展, 网络成为人们进行信息交互和处理的最有效的平台, 各种数字化的信息每天以极高的速度增长, 面对如此巨大的信息, 人工分类选择已经无能为力,计算机自动分类已成为网络时代的必然选择通过利用先进的计算机技术、人工智能技术, 不仅可以实现方便快捷的分类效果, 节省大量的人力物力, 并 且可以进一步进行更深层次的信息挖掘处理, 提高信息的利用效率。 文本分类处理的研究是计算机、信息处理领域的重要内容, 特别是随着网络技术的快 速发展, 这种应用也变得更加迫切。 2 基本概念 2.1 人工智能

纽马克的翻译理论主要是什么

纽马克的翻译理论主要是什么 彼得?纽马克是英国著名的翻译理论家和翻译教育家。纽马克在分析和总结各家各派的翻译思想的基础上,将文体论、话语分析、符号学、格语法的理论、功能语法和跨文化交际理论应用于翻译理论和研究,对于翻译理论、翻译教学、翻译语言学以及翻译技巧都进行了精辟的论述。纽马克翻译理论的核心是语义翻译和交际翻译,这也是其翻译理论中最主要、最有特色的组成部分。他的代表作包括《翻译问题探索》(Approaches to Translation, 1981) 、《翻译教程》(A Text book of Translation, 1988)、《翻译论》(About Translation, 1991)和《翻译短评》(Paragraphs on Translation, 1993)。在《翻译问题探索》一书中,纽马克提出,针对不同的文本类型应当采用不同的翻译方法——语义翻译(semantic tr anslation) 或交际翻译(communicative translation)。根据不同的内容和文体,他将文本分为抒发功能(expressive function)、信息功能(informative function)、呼唤功能(vocative function)、审美功能(aesthetic function)、应酬功能(phatic f unction)和元语言功能(metalingual function)。20世纪90年代他又提出“关联翻译法”,这标志着他的翻译理论渐趋系统。下面本文将就纽马克的主要译论观点进行初步解读,以求对纽马克的翻译理论做更深层次的理解,并将相关翻译标准应用到英汉、汉英翻译中去。一.语言功能与文本类型纽马克认为,翻译活动即是对文本的翻译,研究翻译不能离开文本。在修正布勒(Buhler)、雅各布森(Jakob son)功能模式的语言理论基础上,根据不同的内容和文体,纽马克提出了一套自己的文本功能及其分类。他将文本分为以下六种:(一)表达功能(expressive func tion) 表达功能的核心是讲话人、作者。语言表达功能的核心在于讲话人或作者运用这些话语表情达意,不去考虑读者的反应。纽马克认为,从翻译的目的看,典型的表达型文本有:1、严肃的文学作品,包括抒情诗、短篇小说、长篇小说、戏剧等;2、权威性言论,主要有政治人物的政治演说及文件等,法律法规文献,公认的权威人物撰写的科学、哲学和学术著作。这些文本的权威性来自其作者的地位或可靠性以及他们的语言能力。虽然这样的文本大多不具有言外之意,但往往带有其作者个人特征的"印记";3、自传、散文及个人信函。当这些文本是作者个人情感的一种宣泄,当读者背景模糊时,便属于表达型文本。在翻译表达型文本时,要遵循"作者第一"的原则。以原作者为核心,既要忠实原作者表达的思想内容,又要忠实原作者的语言风格。在这类文本的翻译中,译者不仅不容许对原文进行修饰和

文本分类入门(七)相关概念总结

学习方法:使用样例(或称样本,训练集)来合成计算机程序的过程称为学习方法[22]。 监督学习:学习过程中使用的样例是由输入/输出对给出时,称为监督学习[22]。最典型的监督学习例子就是文本分类问题,训练集是一些已经明确分好了类别文档组成,文档就是输入,对应的类别就是输出。 非监督学习:学习过程中使用的样例不包含输入/输出对,学习的任务是理解数据产生的过程[22]。典型的非监督学习例子是聚类,类别的数量,名称,事先全都没有确定,由计算机自己观察样例来总结得出。 TSR(Term Space Reduction):特征空间的压缩,即降维,也可以叫做特征提取。包括特征选择和特征抽取两大类方法。 分类状态得分(CSV,Categorization Status Value):用于描述将文档归于某个类别下有多大的可信度。 准确率(Precision):在所有被判断为正确的文档中,有多大比例是确实正确的。 召回率(Recall):在所有确实正确的文档中,有多大比例被我们判为正确。假设:计算机对训练集背后的真实模型(真实的分类规则)的猜测称为假设。可以把真实的分类规则想像为一个目标函数,我们的假设则是另一个函数,假设函数在所有的训练数据上都得出与真实函数相同(或足够接近)的结果。 泛化性:一个假设能够正确分类训练集之外数据(即新的,未知的数据)的能力

称为该假设的泛化性[22]。 一致假设:一个假设能够对所有训练数据正确分类,则称这个假设是一致的[22]。 过拟合:为了得到一致假设而使假设变得过度复杂称为过拟合[22]。想像某种学习算法产生了一个过拟合的分类器,这个分类器能够百分之百的正确分类样本数据(即再拿样本中的文档来给它,它绝对不会分错),但也就为了能够对样本完全正确的分类,使得它的构造如此精细复杂,规则如此严格,以至于任何与样本数据稍有不同的文档它全都认为不属于这个类别! 超平面(Hyper Plane):n维空间中的线性函数唯一确定了一个超平面。一些较直观的例子,在二维空间中,一条直线就是一个超平面;在三维空间中,一个平面就是一个超平面。 线性可分和不可分:如果存在一个超平面能够正确分类训练数据,并且这个程序保证收敛,这种情况称为线形可分。如果这样的超平面不存在,则称数据是线性不可分的[22]。 正样本和负样本:对某个类别来说,属于这个类别的样本文档称为正样本;不属于这个类别的文档称为负样本。 规划:对于目标函数,等式或不等式约束都是线性函数的问题称为线性规划问题。对于目标函数是二次的,而约束都是线性函数的最优化问题称为二次规划问题[22]。

支持向量机入门

SVM入门 SVM入门(一)SVM的八股简介 支持向量机(Support Vector Machine)是Cortes和Vapnik于1995年首先提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中[10]。 支持向量机方法是建立在统计学习理论的VC 维理论和结构风险最小原理 基础上的,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度,Accuracy)和学习能力(即无错误地识别任意样本的能力)之间寻求最佳折衷,以期获得最好的推广能力[14](或称泛化能力)。 以上是经常被有关SVM 的学术文献引用的介绍,有点八股,我来逐一分解并解释一下。 Vapnik是统计机器学习的大牛,这想必都不用说,他出版的《Statistical Learning Theory》是一本完整阐述统计机器学习思想的名著。在该书中详细的论证了统计机器学习之所以区别于传统机器学习的本质,就在于统计机器学习能够精确的给出学习效果,能够解答需要的样本数等等一系列问题。与统计机器学习的精密思维相比,传统的机器学习基本上属于摸着石头过河,用传统的机器学习方法构造分类系统完全成了一种技巧,一个人做的结果可能很好,另一个人差不多的方法做出来却很差,缺乏指导和原则。 所谓VC维是对函数类的一种度量,可以简单的理解为问题的复杂程度,VC 维越高,一个问题就越复杂。正是因为SVM关注的是VC维,后面我们可以看到,SVM解决问题的时候,和样本的维数是无关的(甚至样本是上万维的都可以,这使得SVM很适合用来解决文本分类的问题,当然,有这样的能力也因为引入了核函数)。 结构风险最小听上去文绉绉,其实说的也无非是下面这回事。 机器学习本质上就是一种对问题真实模型的逼近(我们选择一个我们认为比较好的近似模型,这个近似模型就叫做一个假设),但毫无疑问,真实模型一定是不知道的(如果知道了,我们干吗还要机器学习?直接用真实模型解决问题不就可以了?对吧,哈哈)既然真实模型不知道,那么我们选择的假设与问题真实解之间究竟有多大差距,我们就没法得知。比如说我们认为宇宙诞生于150亿年前的一场大爆炸,这个假设能够描述很多我们观察到的现象,但它与真实的宇宙模型之间还相差多少?谁也说不清,因为我们压根就不知道真实的宇宙模型到底是什么。 这个与问题真实解之间的误差,就叫做风险(更严格的说,误差的累积叫做风险)。我们选择了一个假设之后(更直观点说,我们得到了一个分类器以后),真实误差无从得知,但我们可以用某些可以掌握的量来逼近它。最直观的想法就是使用分类器在样本数据上的分类的结果与真实结果(因为样本是已经标注过的数据,是准确的数据)之间的差值来表示。这个差值叫做经验风险Remp(w)。以前的机器学习方法都把经验风险最小化作为努力的目标,但后来发现很多分类函数能够在样本集上轻易达到100%的正确率,在真实分类时却一塌糊涂(即所谓的推广能力差,或泛化能力差)。此时的情况便是选择了一个足够复杂的分类函数(它的VC维很高),能够精确的记住每一个样本,但对样本之外的数据一律分类错误。回头看看经验风险最小化原则我们就会发现,此原则适用的大前提是经验风险要确实能够逼近真实风险才行(行话叫一致),但实际上能逼近么?答

利用sklearn做文本分类(特征提取、knnsvm聚类)

利用sklearn做文本分类(特征提取、knnsvm聚类) 数据挖掘入门与实战公众号:datadw 分为以下几个过程: 加载数据集 提feature 分类 Naive Bayes KNN SVM聚类 20newsgroups官网 https://www.sodocs.net/doc/2f14474411.html,/~jason/20Newsgroups/ 上给出了3个数据集,这里我们用最原始的 20news-19997.tar.gz https://www.sodocs.net/doc/2f14474411.html,/~jason/20Newsgroups/20news-19997.ta r.gz 1.加载数据集 从20news-19997.tar.gz下载数据集,解压到 scikit_learn_data文件夹下,加载数据,详见code注释。

[python]view plaincopy #first extract the 20 news_group dataset to /scikit_learn_data fromsklearn.datasets importfetch_20newsgroups #all categories #newsgroup_train = fetch_20newsgroups(subset='train') #part categories categories = ['comp.graphics', 'comp.os.ms-windows.misc', 'comp.sys.ibm.pc.hardware', 'comp.sys.mac.hardware', 'comp.windows.x']; newsgroup_train = fetch_20newsgroups(subset = 'train',categories = categories); 可以检验是否load好了: [python]view plaincopy #print category names frompprint importpprint pprint(list(newsgroup_train.target_names))

从纽马克文本功能理论看科技英语文本翻译策略

龙源期刊网 https://www.sodocs.net/doc/2f14474411.html, 从纽马克文本功能理论看科技英语文本翻译策略 作者:丁杰孙勇强 来源:《现代经济信息》2016年第33期 摘要:纽马克文本功能理论是当今翻译界重要的功能翻译理论之一。科技英语翻译属于应用翻译范畴,根据纽马克文本功能理论,大部分科技文本以传递信息为主是典型的“信息型”文本,但随着科技的发展、科技文本读者群体扩大,一些科技文本也具有呼唤功能。本文将以纽马克的文本类型理论为依据,结合所选取的科技文本的语言特点,探讨此类具有信息型文本功能及呼唤功能的科技文本的翻译策略。 关键词:纽马克文本功能理论;科技英语;信息型文本;呼唤功能 中图分类号:H059 文献识别码:A 文章编号:1001-828X(2016)033-000-02 一、体裁和文本 Genre(体裁)一词源于法语,起先主要是指文学领域的文学类型。genre是“随着时代改变而不同的一组构成性约定和规范,是作者和读者之间形成的未明示的合约。这些规范使得某一文学文本的创作成为可能,尽管作者遵循也可以违背通行的文类约定”[1]。随着研究的深入和扩大,体裁发展到用于语言学和翻译学界。语言学中,指按照约定俗成的形式表达的文本。体裁对于翻译来说是重要概念,翻译过程中,译者必须分析源语文本的文类属性,并用目标语中相应的文类进行转换。genre最重要的特点就是其语篇的规约性。 德国翻译学者在论述文本类型的时候,很少使用genre这一术语,而是使用text一词,认为text的内涵和外延要广一些,text汉语中有“篇章”、“文本”、“语篇”、“话语”等不同译名。 二、纽马克的文本功能理论 英国翻译理论家纽马克将语言功能和翻译结合起来,文本功能理论中,文本类型为text category。根据 Karl Bühler的语言功能学说,在莱斯的“信息型”、“表达型”和“祈使型”三类文本类型基础之上,将各类文本体裁划分为“表达型文本”(expressive text)、“信息型文本” ( informative text)和“呼唤型文本” 针对三种不同功能的文本,纽马克提出了语义翻译(semantic translation)和交际翻译(communicative translation)这两种翻译方法,用于他的文本分类体系中。语义翻译是一种侧重源语的翻译方法:与直译相比,更注重上下文,尽量保留源语的语法、词法特点,更多考虑原作的美学价值。[2]语义翻译法一般用于表达型文本,而交际翻译法用于信息型和呼唤型文

相关主题