搜档网
当前位置:搜档网 › 大数据外文翻译参考文献综述

大数据外文翻译参考文献综述

大数据外文翻译参考文献综述
大数据外文翻译参考文献综述

大数据外文翻译参考文献综述

(文档含中英文对照即英文原文和中文翻译)

原文:

Data Mining and Data Publishing

Data mining is the extraction of vast interesting patterns or knowledge from huge amount of data. The initial idea of privacy-preserving data mining PPDM was to extend traditional data mining techniques to work with the data modified to mask sensitive information. The key issues were how to modify the data and how to recover the data mining result from the modified data. Privacy-preserving data mining considers the problem of running data mining algorithms on confidential data that is not supposed to be revealed even to the party

running the algorithm. In contrast, privacy-preserving data publishing (PPDP) may not necessarily be tied to a specific data mining task, and the data mining task may be unknown at the time of data publishing. PPDP studies how to transform raw data into a version that is immunized against privacy attacks but that still supports effective data mining tasks. Privacy-preserving for both data mining (PPDM) and data publishing (PPDP) has become increasingly popular because it allows sharing of privacy sensitive data for analysis purposes. One well studied approach is the k-anonymity model [1] which in turn led to other models such as confidence bounding, l-diversity, t-closeness, (α,k)-anonymity, etc. In particular, all known mechanisms try to minimize information loss and such an attempt provides a loophole for attacks. The aim of this paper is to present a survey for most of the common attacks techniques for anonymization-based PPDM & PPDP and explain their effects on Data Privacy.

Although data mining is potentially useful, many data holders are reluctant to provide their data for data mining for the fear of violating individual privacy. In recent years, study has been made to ensure that the sensitive information of individuals cannot be identified easily.

Anonymity Models, k-anonymization techniques have been the focus of intense research in the last few years. In order to ensure anonymization of data while at the same time minimizing the information

loss resulting from data modifications, everal extending models are proposed, which are discussed as follows.

1.k-Anonymity

k-anonymity is one of the most classic models, which technique that prevents joining attacks by generalizing and/or suppressing portions of the released microdata so that no individual can be uniquely distinguished from a group of size k. In the k-anonymous tables, a data set is k-anonymous (k ≥ 1) if each record in the data set is in- distinguishable from at least (k . 1) other records within the same data set. The larger the value of k, the better the privacy is protected. k-anonymity can ensure that individuals cannot be uniquely identified by linking attacks.

2. Extending Models

Since k-anonymity does not provide sufficient protection against attribute disclosure. The notion of l-diversity attempts to solve this problem by requiring that each equivalence class has at least l well-represented value for each sensitive attribute. The technology of l-diversity has some advantages than k-anonymity. Because k-anonymity dataset permits strong attacks due to lack of diversity in the sensitive attributes. In this model, an equivalence class is said to have l-diversity if there are at least l well-represented value for the sensitive attribute. Because there are semantic relationships among the attribute values, and different values have very different levels of sensitivity. After

anonymization, in any equivalence class, the frequency (in fraction) of a sensitive value is no more than α.

3. Related Research Areas

Several polls show that the public has an in- creased sense of privacy loss. Since data mining is often a key component of information systems, homeland security systems, and monitoring and surveillance systems, it gives a wrong impression that data mining is a technique for privacy intrusion. This lack of trust has become an obstacle to the benefit of the technology. For example, the potentially beneficial data mining re- search project, Terrorism Information Awareness (TIA), was terminated by the US Congress due to its controversial procedures of collecting, sharing, and analyzing the trails left by individuals. Motivated by the privacy concerns on data mining tools, a research area called privacy-reserving data mining (PPDM) emerged in 2000. The initial idea of PPDM was to extend traditional data mining techniques to work with the data modified to mask sensitive information. The key issues were how to modify the data and how to recover the data mining result from the modified data. The solutions were often tightly coupled with the data mining algorithms under consideration. In contrast, privacy-preserving data publishing (PPDP) may not necessarily tie to a specific data mining task, and the data mining task is sometimes unknown at the time of data publishing. Furthermore, some PPDP solutions emphasize preserving the data

truthfulness at the record level, but PPDM solutions often do not preserve such property. PPDP Differs from PPDM in Several Major Ways as Follows :

1) PPDP focuses on techniques for publishing data, not techniques for data mining. In fact, it is expected that standard data mining techniques are applied on the published data. In contrast, the data holder in PPDM needs to randomize the data in such a way that data mining results can be recovered from the randomized data. To do so, the data holder must understand the data mining tasks and algorithms involved. This level of involvement is not expected of the data holder in PPDP who usually is not an expert in data mining.

2) Both randomization and encryption do not preserve the truthfulness of values at the record level; therefore, the released data are basically meaningless to the recipients. In such a case, the data holder in PPDM may consider releasing the data mining results rather than the scrambled data.

3) PPDP primarily “anonymizes” the data by hiding the identity of record owners, whereas PPDM seeks to directly hide the sensitive data. Excellent surveys and books in randomization and cryptographic techniques for PPDM can be found in the existing literature. A family of research work called privacy-preserving distributed data mining (PPDDM) aims at performing some data mining task on a set of private databases

owned by different parties. It follows the principle of Secure Multiparty Computation (SMC), and prohibits any data sharing other than the final data mining result. Clifton et al. present a suite of SMC operations, like secure sum, secure set union, secure size of set intersection, and scalar product, that are useful for many data mining tasks. In contrast, PPDP does not perform the actual data mining task, but concerns with how to publish the data so that the anonymous data are useful for data mining. We can say that PPDP protects privacy at the data level while PPDDM protects privacy at the process level. They address different privacy models and data mining scenarios. In the field of statistical disclosure control (SDC), the research works focus on privacy-preserving publishing methods for statistical tables. SDC focuses on three types of disclosures, namely identity disclosure, attribute disclosure, and inferential disclosure. Identity disclosure occurs if an adversary can identify a respondent from the published data. Revealing that an individual is a respondent of a data collection may or may not violate confidentiality requirements. Attribute disclosure occurs when confidential information about a respondent is revealed and can be attributed to the respondent. Attribute disclosure is the primary concern of most statistical agencies in deciding whether to publish tabular data. Inferential disclosure occurs when individual information can be inferred with high confidence from statistical information of the published data.

Some other works of SDC focus on the study of the non-interactive query model, in which the data recipients can submit one query to the system. This type of non-interactive query model may not fully address the information needs of data recipients because, in some cases, it is very difficult for a data recipient to accurately construct a query for a data mining task in one shot. Consequently, there are a series of studies on the interactive query model, in which the data recipients, including adversaries, can submit a sequence of queries based on previously received query results. The database server is responsible to keep track of all queries of each user and determine whether or not the currently received query has violated the privacy requirement with respect to all previous queries. One limitation of any interactive privacy-preserving query system is that it can only answer a sublinear number of queries in total; otherwise, an adversary (or a group of corrupted data recipients) will be able to reconstruct all but 1 . o(1) fraction of the original data, which is a very strong violation of privacy. When the maximum number of queries is reached, the query service must be closed to avoid privacy leak. In the case of the non-interactive query model, the adversary can issue only one query and, therefore, the non-interactive query model cannot achieve the same degree of privacy defined by Introduction the interactive model. One may consider that privacy-reserving data publishing is a special case of the non-interactive

query model.

This paper presents a survey for most of the common attacks techniques for anonymization-based PPDM & PPDP and explains their effects on Data Privacy. k-anonymity is used for security of respondents identity and decreases linking attack in the case of homogeneity attack a simple k-anonymity model fails and we need a concept which prevent from this attack solution is l-diversity. All tuples are arranged in well represented form and adversary will divert to l places or on l sensitive attributes. l-diversity limits in case of background knowledge attack because no one predicts knowledge level of an adversary. It is observe that using generalization and suppression we also apply these techniques on those attributes which doesn’t need th is extent of privacy and this leads to reduce the precision of publishing table. e-NSTAM (extended Sensitive Tuples Anonymity Method) is applied on sensitive tuples only and reduces information loss, this method also fails in the case of multiple sensitive tuples.Generalization with suppression is also the causes of data lose because suppression emphasize on not releasing values which are not suited for k factor. Future works in this front can include defining a new privacy measure along with l-diversity for multiple sensitive attribute and we will focus to generalize attributes without suppression using other techniques which are used to achieve k-anonymity because suppression leads to reduce the precision of

publishing table.

译文:

数据挖掘和数据发布

数据挖掘中提取出大量有趣的模式从大量的数据或知识。数据挖掘隐私保护PPDM的最初的想法是将传统的数据挖掘技术扩展到处理数据修改为屏蔽敏感信息。关键问题是如何修改数据以及如何从修改后的数据恢复数据挖掘的结果。隐私保护数据挖掘认为机密数据上运行数据挖掘算法的问题不应该透露方运行算法。相比之下,隐私保护数据发布(PPDP)不一定是绑定到一个特定的数据挖掘任务,和数据挖掘任务时可能是未知的数据发布。PPDP研究如何将原始数据转换成一个版本接种隐私攻击,但仍然支持有效的数据挖掘任务。隐私保护数据挖掘(PPDM)和数据发布(PPDP)已成为越来越受欢迎,因为它允许共享隐私的敏感数据进行分析的目的。深入研究方法之一是k-anonymity匿名模型进而导致信心边界等模型,l-diversity, t-closeness,(α,k)-anonymity,等。特别是,所有已知的机制,尽量减少信息损失,试图提供一个漏洞攻击。本文的目的是提出一项调查最常见的攻击技术即PPDM & PPDP和解释它们对数据隐私的影响。

尽管数据挖掘可能是有用的,很多数据持有者不愿提供他们的数据对数据挖掘的恐惧侵犯个人隐私。近年来,研究了以确保个人敏感信息不能轻易识别。

大数据文献综述

信息资源管理文献综述 题目:大数据背景下的信息资源管理 系别:信息与工程学院 班级:2015级信本1班 姓名: 学号:1506101015 任课教师: 2017年6月 大数据背景下的信息资源管理 摘要:随着网络信息化时代的日益普遍,我们正处在一个数据爆炸性增长的“大数据”时代,在我们的各个方面都产生了深远的影响。大数据是数据分析的前沿技术。简言之,从各种各样类型的数据中,快速获得有价值信息的能力就是大数据技术,这也是一个企业所需要必备的技术。“大数据”一词越来越地别提及与使用,我们用它来描述和定义信息爆炸时代产生的海量数据。就拿百度地图来说,我们在享受它带来的便利的同时,无偿的贡献了我们的“行踪”,比如说我们的上班地点,我们的家庭住址,甚至是我们的出行方式他们也可以知道,但我们不得不接受这个现实,我们每个人在互联网进入大数据时代,都将是透明性的存在。各种数据都在迅速膨胀并变大,所以我们需要对这些数据进行有效的管理并加以合理的运用。

关键词:大数据信息资源管理与利用 目录 大数据概念.......................................................... 大数据定义...................................................... 大数据来源...................................................... 传统数据库和大数据的比较........................................ 大数据技术.......................................................... 大数据的存储与管理.............................................. 大数据隐私与安全................................................ 大数据在信息管理层面的应用.......................................... 大数据在宏观信息管理层面的应用.................................. 大数据在中观信息管理层面的应用.................................. 大数据在微观信息管理层面的应用.................................. 大数据背景下我国信息资源管理现状分析................................ 前言:大数据泛指大规模、超大规模的数据集,因可从中挖掘出有价值 的信息而倍受关注,但传统方法无法进行有效分析和处理.《华尔街日

SQL数据库外文翻译--数据库的工作

Working with Databases This chapter describes how to use SQL statements in embedded applications to control databases. There are three database statements that set up and open databases for access: SET DATABASE declares a database handle, associates the handle with an actual database file, and optionally assigns operational parameters for the database. SET NAMES optionally specifies the character set a client application uses for CHAR, VARCHAR, and text Blob data. The server uses this information to transli terate from a database?s default character set to the client?s character set on SELECT operations, and to transliterate from a client application?s character set to the database character set on INSERT and UPDATE operations. g CONNECT opens a database, allocates system resources for it, and optionally assigns operational parameters for the database.All databases must be closed before a program ends. A database can be closed by using DISCONNECT, or by appending the RELEASE option to the final COMMIT or ROLLBACK in a program. Declaring a database Before a database can be opened and used in a program, it must first be declared with SET DATABASE to: CHAPTER 3 WORKING WITH DATABASES. Establish a database handle. Associate the database handle with a database file stored on a local or remote node.A database handle is a unique, abbreviated alias for an actual database name. Database handles are used in subsequent CONNECT, COMMIT RELEASE, and ROLLBACK RELEASE statements to specify which databases they should affect. Except in dynamic SQL (DSQL) applications, database handles can also be used inside transaction blocks to qualify, or differentiate, table names when two or more open databases contain identically named tables. Each database handle must be unique among all variables used in a program. Database handles cannot duplicate host-language reserved words, and cannot be InterBase reserved words.The following statement illustrates a simple database declaration:

文献综述,外文翻译,论文网站

文献综述怎么写 1) 什么是文献综述? 文献综述是研究者在其提前阅读过某一主题的文献后,经过理解、整理、融会贯通,综合分析和评价而组成的一种不同于研究论文的文体。 2) 文献综述的写作要求 1、文献综述的格式 文献综述的格式与一般研究性论文的格式有所不同。这是因为研究性的论文注重研究的方法和结果,而文献综述介绍与主题有关的详细资料、动态、进展、展望以及对以上方面的评述。因此文献综述的格式相对多样,但总的来说,一般都包含以下四部分:即前言、主题、总结和参考文献。撰写文献综述时可按这四部分拟写提纲,再根据提纲进行撰写工作。 前言,要用简明扼要的文字说明写作的目的、必要性、有关概念的定义,综述的范围,阐述有关问题的现状和动态,以及目前对主要问题争论的焦点等。前言一般200-300字为宜,不宜超过500字。 正文,是综述的重点,写法上没有固定的格式,只要能较好地表达综合的内容,作者可创造性采用诸多形式。正文主要包括论据和论证两个部分,通过提出问题、分析问题和解决问题,比较不同学者对同一问题的看法及其理论依据,进一步阐明问题的来龙去脉和作者自己的见解。当然,作者也可从问题发生的历史背景、目前现状、发展方向等提出文献的不同观点。正文部分可根据内容的多少可分为若干个小标题分别论述。 小结,是结综述正文部分作扼要的总结,作者应对各种观点进行综合评价,提出自己的看法,指出存在的问题及今后发展的方向和展望。内容单纯的综述也可不写小结。 参考文献,是综述的重要组成部分。一般参考文献的多少可体现作者阅读文献的广度和深度。对综述类论文参考文献的数量不同杂志有不同的要求,一般以30条以内为宜,以最近3-5年内的最新文献为主。 2、文献综述规定 1. 为了使选题报告有较充分的依据,要求硕士研究生在论文开题之前作文献综述。 2. 在文献综述时,研究生应系统地查阅与自己的研究方向有关的国内外文献。通常阅读文献不少于30篇,且文献搜集要客观全面 3. 在文献综述中,研究生应说明自己研究方向的发展历史,前人的主要研究成果,存在的问题及发展趋势等。 4. 文献综述要条理清晰,文字通顺简练。 5. 资料运用恰当、合理。文献引用用方括号[ ]括起来置于引用词的右上角。 6. 文献综述中要有自己的观点和见解。不能混淆作者与文献的观点。鼓励研究生多发现问题、多提出问题、并指出分析、解决问题的可能途径,针对性强。 7. 文献综述不少于3000字。 3、注意事项 ⒈搜集文献应尽量全。掌握全面、大量的文献资料是写好综述的前提,否则,随便搜集一点资料就动手撰写是不可能写出好的综述。 ⒉注意引用文献的代表性、可靠性和科学性。在搜集到的文献中可能出现观点雷同,有的文献在可靠性及科学性方面存在着差异,因此在引用文献时应注意选用代表性、可靠性和科学性较好的文献。 ⒊引用文献要忠实文献内容。由于文献综述有作者自己的评论分析,因此在撰写时应分清作者的观点和文献的内容,不能篡改文献的内容。引用文献不过多。文献综述的作者引用间接文献的现象时有所见。如果综述作者从他人引用的参考文献转引过来,这些文献在他人

文献综述 英文

文献综述 大学生时间管理研究——以郑州大学西亚斯国际学院为例 姓名:代永寒学号:20091211205 专业:工商管理班级:工本2班 史蒂芬?柯维的《要事第一》 “要事第一”,顾名思义是指重要的主要的事情要放在第一时间去完成。而在实际工作中我们往往是将认为急迫的紧要的事情放在第一时间完成; 本书通过四个象限来告诉我们如何区分事情的紧急性与重要性,从而告诉我们在平常的工作中应怎样去区分事情属轻属重,以及造成事情紧急性的原因,在平常工作中要注意哪些方面以避免出现紧急事件的情况。 第一象限包括四点:A危机 B 急迫的问题C最后期限迫近的项目 D 会议准备工作等。第一象限显得紧迫与重要,但我们要知道形成第一象限的紧迫与重要主要是因被延误及没有进行计划与预测及计划所致。第二象限包含准备工作、预防、价值、筹划、建立关系、真正的再创造与赋予能力。第二象限属于质量象限,属于重要但不紧迫的事情,但我们必须要去做,因只有这样才能避免出现第一象限包含的情况。第三象限包含干扰、电话;邮件、报告;某些会议;很多临近、急迫的事情及很多流行的活动。第三象限包括“紧急但不重要的事情”,而事实上它易给人造成假象,从而形成第一象限情况。第四象限包含琐事、打发时间的工作、某些电话,解闷,“逃避”行为、无关紧要的邮件及过多地看电视;第四象限属于既不紧急也不重要的事情,它是浪费象限,第四象限中的行为是堕落行为。这四个象限告诉我们如果在办事过程中不是以重要性而是以紧要性为出发点,就会出现第一第三甚至第四象限的情况,在平常的工作中,我们要加以区分,日常工作生活中往往事情越是紧迫,反而说明事情越不重要!像最近存货系统因急着想能早日上线,在运作过程中被卡住,故一心想着去解决软件中存在的问题,而忽略了与其他人员的沟通协调,存货上软件固然重要,但与公司整体运作相比就稍显其次,没合理分配其他人员手头事项,这样会导致其他问题的增多,从而会出现第一第三象限甚至于第四象限的浪费情况。 “要事第一”,告诉我们在日常的工作与生活中要从以下方面着手加以区分、

大数据文献综述

信息资源管理文献综述题目:大数据背景下的信息资源管理 系别:信息与工程学院 班级:2015级信本1班 姓名: 学号:1506101015 任课教师: 2017年6月

大数据背景下的信息资源管理 摘要:随着网络信息化时代的日益普遍,我们正处在一个数据爆炸性增长的“大数据”时代,在我们的各个方面都产生了深远的影响。大数据是数据分析的前沿技术。简言之,从各种各样类型的数据中,快速获得有价值信息的能力就是大数据技术,这也是一个企业所需要必备的技术。“大数据”一词越来越地别提及与使用,我们用它来描述和定义信息爆炸时代产生的海量数据。就拿百度地图来说,我们在享受它带来的便利的同时,无偿的贡献了我们的“行踪”,比如说我们的上班地点,我们的家庭住址,甚至是我们的出行方式他们也可以知道,但我们不得不接受这个现实,我们每个人在互联网进入大数据时代,都将是透明性的存在。各种数据都在迅速膨胀并变大,所以我们需要对这些数据进行有效的管理并加以合理的运用。 关键词:大数据信息资源管理与利用 目录 大数据概念 (3) 大数据定义 (3) 大数据来源 (3) 传统数据库和大数据的比较 (3) 大数据技术 (4) 大数据的存储与管理 (4)

大数据隐私与安全 (5) 大数据在信息管理层面的应用 (6) 大数据在宏观信息管理层面的应用 (6) 大数据在中观信息管理层面的应用 (7) 大数据在微观信息管理层面的应用 (8) 大数据背景下我国信息资源管理现状分析 (9) 前言:大数据泛指大规模、超大规模的数据集,因可从中挖掘出有价值 的信息而倍受关注,但传统方法无法进行有效分析和处理.《华尔街日 报》将大数据时代、智能化生产和无线网络革命称为引领未来繁荣的大技术变革.“世界经济论坛”报告指出大数据为新财富,价值堪比石油.因此,目前世界各国纷纷将开发利用大数据作为夺取新一轮竞争制高点的重要举措. 当前大数据分析者面临的主要问题有:数据日趋庞大,无论是入库和查询,都出现性能瓶颈;用户的应用和分析结果呈整合趋势,对实时性和响应时间要求越来越高;使用的模型越来越复杂,计算量指数级上升;传统技能和处理方法无法应对大数据挑战. 正文:

数据库外文参考文献及翻译.

数据库外文参考文献及翻译 数据库外文参考文献及翻译数据库管理系统——实施数据完整性一个数据库,只有用户对它特别有信心的时候。这就是为什么服务器必须实施数据完整性规则和商业政策的原因。执行SQL Server的数据完整性的数据库本身,保证了复杂的业务政策得以遵循,以及强制性数据元素之间的关系得到遵守。因为SQL Server的客户机/服务器体系结构允许你使用各种不同的前端应用程序去操纵和从服务器上呈现同样的数据,这把一切必要的完整性约束,安全权限,业务规则编码成每个应用,是非常繁琐的。如果企业的所有政策都在前端应用程序中被编码,那么各种应用程序都将随着每一次业务的政策的改变而改变。即使您试图把业务规则编码为每个客户端应用程序,其应用程序失常的危险性也将依然存在。大多数应用程序都是不能完全信任的,只有当服务器可以作为最后仲裁者,并且服务器不能为一个很差的书面或恶意程序去破坏其完整性而提供一个后门。SQL Server使用了先进的数据完整性功能,如存储过程,声明引用完整性(DRI),数据类型,限制,规则,默认和触发器来执行数据的完整性。所有这些功能在数据库里都有各自的用途;通过这些完整性功能的结合,可以实现您的数据库的灵活性和易于管理,而且还安全。声明数据完整性声明数据完整原文请找腾讯3249114六,维-论'文.网 https://www.sodocs.net/doc/202135650.html, 定义一个表时指定构成的主键的列。这就是所谓的主键约束。SQL Server使用主键约束以保证所有值的唯一性在指定的列从未侵犯。通过确保这个表有一个主键来实现这个表的实体完整性。有时,在一个表中一个以上的列(或列的组合)可以唯一标志一行,例如,雇员表可能有员工编号( emp_id )列和社会安全号码( soc_sec_num )列,两者的值都被认为是唯一的。这种列经常被称为替代键或候选键。这些项也必须是唯一的。虽然一个表只能有一个主键,但是它可以有多个候选键。 SQL Server的支持多个候选键概念进入唯一性约束。当一列或列的组合被声明是唯一的, SQL Server 会阻止任何行因为违反这个唯一性而进行的添加或更新操作。在没有故指的或者合适的键存在时,指定一个任意的唯一的数字作为主键,往往是最有效的。例如,企业普遍使用的客户号码或账户号码作为唯一识别码或主键。通过允许一个表中的一个列拥有身份属性,SQL Server可以更容易有效地产生唯一数字。您使用的身份属性可以确保每个列中的值是唯一的,并且值将从你指定的起点开始,以你指定的数量进行递增(或递减)。(拥有特定属性的列通常也有一个主键或唯一约束,但这不是必需的。)第二种类型的数据完整性是参照完整性。 SQL Server实现了表和外键约束之间的逻辑关系。外键是一个表中的列或列的组合,连接着另一个表的主键(或着也可能是替代键)。这两个表之间的逻辑关系是关系模型的基础;参照完整性意味着这种关系是从来没有被违反的。例如,一个包括出版商表和标题表的简单的select例子。在标题表中,列title_id (标题编号)是主键。在出版商表,列pub_id (出版者ID )是主键。 titles表还包括一个pub_id列,这不是主键,因为出版商可以发布多个标题。相反, pub_id是一个外键,它对应着出版商表的主键。如果你在定义表的时候声明了这个关系, SQL Server由双方执行它。首先,它确保标题不能进入titles表,或在titles表中现有的pub_id无法被修改,除非有效的出版商ID作为新pub_id出现在出版商表中。其次,它确保在不考虑titles表中对应值的情况下,出版商表中的pub_id的值不做任何改变。以下两种方法可

数据库设计外文翻译

外文翻译: 索引 原文来源:Thomas Kyte.Expert Oracle Database Architecture .2nd Edition. 译文正文: 什么情况下使用B*树索引? 我并不盲目地相信“法则”(任何法则都有例外),对于什么时候该用B*索引,我没有经验可以告诉你。为了证明为什么这个方面我无法提供任何经验,下面给出两种等效作法:?使用B*树索引,如果你想通过索引的方式去获得表中所占比例很小的那些行。 ?使用B *树索引,如果你要处理的表和索引许多可以代替表中使用的行。 这些规则似乎提供相互矛盾的意见,但在现实中,他们不是这样的,他们只是涉及两个极为不同的情况。有两种方式使用上述意见给予索引: ?作为获取表中某些行的手段。你将读取索引去获得表中的某一行。在这里你想获得表中所占比例很小的行。 ?作为获取查询结果的手段。这个索引包含足够信息来回复整个查询,我们将不用去查询全表。这个索引将作为该表的一个瘦版本。 还有其他方式—例如,我们使用索引去检索表的所有行,包括那些没有建索引的列。这似乎违背了刚提出的两个规则。这种方式获得将是一个真正的交互式应用程序。该应用中,其中你将获取其中的某些行,并展示它们,等等。你想获取的是针对初始响应时间的查询优化,而不是针对整个查询吞吐量的。 在第一种情况(也就是你想通过索引获得表中一小部分的行)预示着如果你有一个表T (使用与早些时候使用过的相一致的表T),然后你获得一个像这样查询的执行计划: ops$tkyte%ORA11GR2> set autotrace traceonly explain ops$tkyte%ORA11GR2> select owner, status 2 from t 3 where owner = USER; Execution Plan ---------------------------------------------------------- Plan hash value: 1049179052 ------------------------------------------------------------------ | Id | Operation | Name | Rows | Bytes | ------------------------------------------------------------------ | 0 | SELECT STATEMENT | | 2120 | 23320 | | 1 | TABLE ACCESS BY INDEX ROWID |T | 2120 | 23320 | | *2 | INDEX RANGE SCAN | DESC_T_IDX | 8 | | ------------------------------------------------------------------ Predicate Information (identified by operation id): --------------------------------------------------- 2 - access(SYS_OP_DESCEND("OWNER")=SYS_OP_DESCEND(USER@!)) filter(SYS_OP_UNDESCEND(SYS_OP_DESCEND("OWNER"))=USER@!) 你应该访问到该表的一小部分。这个问题在这里看是INDEX (RANGE SCAN) 紧跟在

员工激励的文献综述、外文翻译.doc

一、激励理论的背景 在经济发展的过程中,劳动分工与交易的出现带来了激励问题。激励理论是行为科学中用于处理需要,动机,目标和行为四者之间关系的核心理论。行为科学认为人的动机来自需要,由需要确定人们的行为目标,激励则作用于人内心活动,激发,驱动和强化人的行为。哈佛大学维廉詹姆士研究表明:在没有激励措施下,下属一般仅能发挥工作能力的20%~30%,而当他受到激励后,其工作能力可以提升到80%~90%,所发挥的作用相当于激励前的3到4倍。日本丰田公司采取激励措施鼓励员工提建议,结果仅1983年一年,员工提了165万条建议,平均每人31条,它为公司带来900亿日元利润,相当于当年总利润的18%。由于激励的效果明显,所以各种组织为了提高生产效率,有些专家学者就开始了对激励理论的研究之中,探索激励的无穷潜力。 二、国外研究现状 国外对于激励理论有了大量的研究并获得了丰硕的成果。总体来说,可以分为两类激励理论。一类是以人的心理需求和动机为主要研究对象的激励理论,熟称“内容型激励理论”。另一类是以人的心理过程和行为过程相互作用的动态系统为研究对象的激励过程理论,它也被称作是“行为型激励理论”。 1 内容型激励理论 1.1 奠瑞的人类人格理论 这种理论认为,在面临着动态且不断变化的环境时,人们都是自适应的。它把需求分成了两种类型,即生理需求和心理需求。前者与人体基本生理过程的满足感有关,而后者所关注的是情绪上和精神上的满足感。 1.2 马斯洛的“需要层次”理论 美国心理学家马斯洛(A.H.Maslow)进一步发展了莫瑞的研究,在1954年出版的《动机与人格》一书中对该理论作了进一步的阐释。马斯洛认为人的需要可以划分为五个层次,从低到高依次为生理需要,安全需要,社交需要,尊熏需要,自我实现需要,且这五个层次的顺序,对每个人都是相同的。只有当较低层次的需要获得了基本满足后,下一个较高层次的需要才能成为主导需要。 1.3 赫茨伯格的激励—保健双因素理论 美国心理学家赫茨伯格因素理论打破了这一假设。他于1959年在《工作的激励》一书中提出了保健——激励因素理论,简称双因素理论。即保健因素和激励因素。保健因素可以用来体现高水平员工的不满意,激励因素可以用来体现高水平员工的满意度。他认为只有激励因素才能促发员工积极性,提高生产效率。 2 行为型激励理论 2.1 洛克的目标设置理论 2O世纪6O年代末,埃德温·A·洛克和他的同事们花了许多年的时间研究目标对于人类行为和绩效的效果。他们的研究导致了目标设置理论的创立并不断地得到验证,提出:指向一共同目标的工作意向是工作效率的主要源泉。他还提出了具体的设置目标的步骤。 2.2 亚当斯的公平理论 美国心理学家亚当斯(J.s.Adams)对员工受激励程度的大小与他人之间的关系进行研究,并在《工人关于工资不公平的内心冲突同其生产率的关系》(1962年与罗森合写),《工

文献综述英文版

Title :Magnetic motor shell stamping process and die design Author:yu Department of Materials "Magnetic motor shell stamping process and die design" literature review Abstract摘要 By read these references and documents, in-depth understanding of the contemporary mold of advanced manufacturing technology and metal forming technology, a number of instances of mold design and the understanding and learning, to further study the method of stamping die design, die design and thus have a directionalguidance.As used in this design and drawing die punching die and so on, through the design of the book related to mold in-depth study, this drawing die and the punching die and so the design methods have shape.These references and documents, the design of low-cost high-accuracy die with directional guidance. Keywords: Mold advanced manufacturing technology Mold Manufacturing Trends Drawing Punching CAE Die Materials Prices Preface前言 As China's economic integration with the world economy, the rapid development of basic industries, mold manufacturing industry is also developing fast.In the current economic situation, people pay more attention to efficiency, product quality, cost, and new product development capabilities.The innovation and development of mold manufacturing concern. 1.1 The history of the development of mold Archaeological discoveries in China, as early as 2,000 years ago, China has been used to make bronze stamping dies to prove that in ancient China stamping die stamping and achievements to the world's leading.In 1953, the Changchun First Automobile Works in China for the first time established a stamping plants, the plant began manufacturing cars in 1958, cover mold.60 years of the 20th century began producing fine blanking dies.In walked a long path of development temperature, the present, China has formed more than 300 billion yuan (not including Hong Kong, Macao and Taiwan statistics) the production capacity of various types of stamping dies. 1.2 Development Status and Trends Die Since reform and opening, with the rapid development of the national economy, the market demand of mold growing.In recent years, the mold industry has been the growth rate of about 15% of the rapid development of industrial enterprises in the ownership of the mold components also changed dramatically, in addition to professional mold factory outside of state-owned, collective, joint ventures, wholly-owned and private has been a rapid development.

大数据文献综述

信息资源管理文献综述题目:大数据背景下的信息资源管理系别:信息与工程学院 班级:2015级信本1班 姓名: 学号:1506101015 任课教师: 2017年6月

大数据背景下的信息资源管理 摘要:随着网络信息化时代的日益普遍,我们正处在一个数据爆炸性增长的“大数据”时代,在我们的各个方面都产生了深远的影响。大数据是数据分析的前沿技术。简言之,从各种各样类型的数据中,快速获得有价值信息的能力就是大数据技术,这也是一个企业所需要必备的技术。“大数据”一词越来越地别提及与使用,我们用它来描述和定义信息爆炸时代产生的海量数据。就拿百度地图来说,我们在享受它带来的便利的同时,无偿的贡献了我们的“行踪”,比如说我们的上班地点,我们的家庭住址,甚至是我们的出行方式他们也可以知道,但我们不得不接受这个现实,我们每个人在互联网进入大数据时代,都将是透明性的存在。各种数据都在迅速膨胀并变大,所以我们需要对这些数据进行有效的管理并加以合理的运用。 关键词:大数据信息资源管理与利用 目录 大数据概念 (2) 大数据定义 (2) 大数据来源 (2) 传统数据库和大数据的比较 (3) 大数据技术 (3) 大数据的存储与管理 (4) 大数据隐私与安全 (4) 大数据在信息管理层面的应用 (5) 大数据在宏观信息管理层面的应用 (5) 大数据在中观信息管理层面的应用 (6) 大数据在微观信息管理层面的应用 (7) 大数据背景下我国信息资源管理现状分析 (8)

前言:大数据泛指大规模、超大规模的数据集,因可从中挖掘出有价值 的信息而倍受关注,但传统方法无法进行有效分析和处理.《华尔街日 报》将大数据时代、智能化生产和无线网络革命称为引领未来繁荣的 大技术变革.“世界经济论坛”报告指出大数据为新财富,价值堪比 石油.因此,目前世界各国纷纷将开发利用大数据作为夺取新一轮竞 争制高点的重要举措. 当前大数据分析者面临的主要问题有:数据日趋庞大,无论是入 库和查询,都出现性能瓶颈;用户的应用和分析结果呈整合趋势,对 实时性和响应时间要求越来越高;使用的模型越来越复杂,计算量指 数级上升;传统技能和处理方法无法应对大数据挑战. 正文: 大数据概念 大数据定义 维基百科对大数据的定义则简单明了:大数据是指利用常用软件工具捕获、管理和处理数据所耗时间超过可容忍时间的数据集。也就是说大数据是一个体量特别大,数据类别特别大的数据集,并且这样的数据集无法用传统数据库工具对其内容进行抓取、管理 大数据来源 1)来自人类活动:人们通过社会网络、互联网、健康、金融、经济、交通等活动过程所产生的各类数据,包括微博、病人医疗记录、文字、图形、视频等

大学毕业设计仓库管理系统数据库计算机外文参考文献原文及翻译

河北工程大学毕业论文(设计)英文参考文献原文复印件及译文 数据仓库 数据仓库为商务运作提供结构与工具,以便系统地组织、理解和使用数据进行决策。大量组织机构已经发现,在当今这个充满竞争、快速发展的世界,数据仓库是一个有价值的工具。在过去的几年中,许多公司已花费数百万美元,建立企业范围的数据仓库。许多人感到,随着工业竞争的加剧,数据仓库成了必备的最新营销武器——通过更多地了解客户需求而保住客户的途 径。“那么”,你可能会充满神秘地问,“到底什么是数据仓库?” 数据仓库已被多种方式定义,使得很难严格地定义它。宽松地讲,数据仓库是一个数据库,它与组织机构的操作数据库分别维护。数据仓库系统允许将各种应用系统集成在一起,为统一的历史数据分析提供坚实的平台,对信息处理提供支持。 按照W. H. Inmon,一位数据仓库系统构造方面的领头建筑师的说法,“数 (1) 视图。 (2)

般文件和联机事务处理记录,集成在一起。使用数据清理和数据集成技术,确保命名约定、编码结构、属性度量的一致性等。 (3)时变的:数据存储从历史的角度(例如,过去5-10 年)提供信息。数据仓库中的关键结构,隐式或显式地包含时间元素。 (4) 非易失的:数据仓库总是物理地分离存放数据;这些数据源于操作环境下的应用数据。由于这种分离,数据仓库不需要事务处理、恢复和并行控制机制。通常,它只需要两种数据访问:数据的初始化装入和数据访问。 概言之,数据仓库是一种语义上一致的数据存储,它充当决策支持数据模型的物理实现,并存放企业决策所需信息。数据仓库也常常被看作一种体系结构,通过将异种数据源中的数据集成在一起而构造,支持结构化和启发式查询、分析报告和决策制定。 “好”,你现在问,“那么,什么是建立数据仓库?” 根据上面的讨论,我们把建立数据仓库看作构造和使用数据仓库的过程。数据仓库的构造需要数据集成、数据清理、和数据统一。利用数据仓库常常需要一些决策支持技术。这使得“知识工人”(例如,经理、分析人员和主管)能够使用数据仓库,快捷、方便地得到数据的总体视图,根据数据仓库中的信息做出准确的决策。有些作者使用术语“建立数据仓库”表示构造数据仓库的过程,而用术语“仓库DBMS”表示管理和使用数据仓库。我们将不区分二者。 “组织机构如何使用数据仓库中的信息?”许多组织机构正在使用这些信息支持商务决策活动,包括: (1)、增加顾客关注,包括分析顾客购买模式(如,喜爱买什么、购买时间、预算周期、消费习惯); (2)、根据季度、年、地区的营销情况比较,重新配置产品和管理投资,调整生产策略; (3)、分析运作和查找利润源; (4)、管理顾客关系、进行环境调整、管理合股人的资产开销。 从异种数据库集成的角度看,数据仓库也是十分有用的。许多组织收集了形形色色数据,并由多个异种的、自治的、分布的数据源维护大型数据库。集成这些数据,并提供简便、有效的访问是非常希望的,并且也是一种挑战。数据库工业界和研究界都正朝着实现这一目标竭尽全力。 对于异种数据库的集成,传统的数据库做法是:在多个异种数据库上,建立一个包装程序和一个集成程序(或仲裁程序)。这方面的例子包括IBM 的数据连接程序和Informix的数据刀。当一个查询提交客户站点,首先使用元数据字典对查询进行转换,将它转换成相应异种站点上的查询。然后,将这些查询

大数据外文翻译参考文献综述

大数据外文翻译参考文献综述 (文档含中英文对照即英文原文和中文翻译) 原文: Data Mining and Data Publishing Data mining is the extraction of vast interesting patterns or knowledge from huge amount of data. The initial idea of privacy-preserving data mining PPDM was to extend traditional data mining techniques to work with the data modified to mask sensitive information. The key issues were how to modify the data and how to recover the data mining result from the modified data. Privacy-preserving data mining considers the problem of running data mining algorithms on confidential data that is not supposed to be revealed even to the party

running the algorithm. In contrast, privacy-preserving data publishing (PPDP) may not necessarily be tied to a specific data mining task, and the data mining task may be unknown at the time of data publishing. PPDP studies how to transform raw data into a version that is immunized against privacy attacks but that still supports effective data mining tasks. Privacy-preserving for both data mining (PPDM) and data publishing (PPDP) has become increasingly popular because it allows sharing of privacy sensitive data for analysis purposes. One well studied approach is the k-anonymity model [1] which in turn led to other models such as confidence bounding, l-diversity, t-closeness, (α,k)-anonymity, etc. In particular, all known mechanisms try to minimize information loss and such an attempt provides a loophole for attacks. The aim of this paper is to present a survey for most of the common attacks techniques for anonymization-based PPDM & PPDP and explain their effects on Data Privacy. Although data mining is potentially useful, many data holders are reluctant to provide their data for data mining for the fear of violating individual privacy. In recent years, study has been made to ensure that the sensitive information of individuals cannot be identified easily. Anonymity Models, k-anonymization techniques have been the focus of intense research in the last few years. In order to ensure anonymization of data while at the same time minimizing the information

英语专业文献综述

英语专业文献综述 The Standardization Office was revised on the afternoon of December 13, 2020

Y i b i n U n i v e r s i t y 2015届本科毕业论文文献综述 题目_翻译目的论指导下的英语介词汉译策略研究 二级学院外国语学院 专业英语 学生姓名简汝梦 学号年级 2011级 指导教师徐文英职称讲师 年月日 文献综述 翻译目的论指导下的英语介词汉译策略研究 Study on the Translation Strategies of English Prepositions Based on Skopos Theory 摘要:英语介词使用频率高,搭配能力强,含义灵活,因此在翻译中属于比较难以处理的一种词类。目的论论者认为翻译是有明确的目的和意图,在译者的作用

下,以原文文本为基础的跨文化的人类交际活动。目的论以文本目的为翻译过程的第一准则,目的决定了译者需要采用何种翻译策略和方法。目的论的提出为英语介词的汉译提供了可靠的指导。本文将目的论引入到介词翻译中,认为在目的论原则的指导下,英语介词的汉译可通过加词、减词、分译、转译等策略来达到较好的翻译效果以及更好地实现翻译目的。 关键词:英语介词;翻译;目的论 导言:随着时代的发展,以及中国入世的大好形势的出现,汉语与英语在世界上似乎显得同等重要,所以将这两种语言互相转化是我们越来越重要的任务。在英语中,英语介词数量不多,但其构成的介词短语在英语中的出现频率很高,功能多样且位置灵活,对构成句子具有重要作用,因此对于英语介词的翻译策略问题一直深受广大翻译学者的关注。目的论以文本目的为翻译过程的第一准则,目的论者认为翻译是一种有目的的活动,目的决定了译者需要采用何种翻译策略和方法,即“目的决定论”。目的论的提出为英语介词汉译提供了有效的指导。因此,译者若能熟练掌握翻译目的和翻译方法,则能译出高质量的译文。鉴于此,本文先是阐述各大专家对于英语介词翻译以及翻译目的论的已有研究和探索,并结合笔者自己的观点加以评述;然后以此综述在翻译目的论指导下研究英语介词的汉译策略是个切实可行的手段;最后预测此观点的发展前景一定是光明受欢迎的。 历史发展:对于翻译目的论的发展历程,笔者在总结各前辈的资料中得出:在20世纪70年代,功能主义翻译理论兴起于德国,其四大代表性人物及其理论是: 凯瑟林娜·赖斯(Katharina Reiss)的功能主义翻译批评理论(functional category

相关主题