搜档网
当前位置:搜档网 › OmniPeek使用手册入门版

OmniPeek使用手册入门版

OmniPeek使用手册入门版
OmniPeek使用手册入门版

drozer使用详解

Mercury(Android APP 应用安全评估) Mercury 是一款优秀的开源Android APP应用安全评估框架,它最赞的功能是可以动态的与android设备中的应用进行IPC(组件通信)交互。 一、安装与启动 1. 安装 (1)windows安装 第一步:下载Mercury 2.2.2 (Windows Installer) 第二步:在Android设备中安装agent.apk adb install agent.apk (2)*inux安装(Debian/Mac) apt-get install build-essential python-dev python-setuptools #以下步骤mac也适合 easy_install --allow-hosts https://www.sodocs.net/doc/db5793744.html, protobuf==2.4.1 easy_install twisted==10.2.0 (为了支持Infrastructure模式) wget https://www.sodocs.net/doc/db5793744.html,/assets/415/mercury-2.2.2.tar.gz tar zxvf mercury-2.2.2.tar.gz easy_install mercury-2.0.0-py2.7.egg 2. 启动 有三种方式 (1)USB方式的 第一步:在PC上使用adb进行端口转发,转发到Mercury使用的端口31415 adb forward tcp:31415 tcp:31415 第二步:在Android设备上开启Mercury Agent 选择embedded server-enable

zheng-环境搭建及系统部署文档20170213(三版)

1Een 项目描述 基于Spring+SpringMVC+Mybatis分布式敏捷开发系统架构:内容管理系统(门户、博客、论坛、问答等)、统一支付中心(微信、支付宝、在线网银等)、用户权限管理系统(RBAC细粒度用户权限、统一后台、单点登录、会话管理)、微信管理系统、第三方登录系统、会员系统、存储系统 https://www.sodocs.net/doc/db5793744.html,/zhengAdmin/src/ 2项目组织结构

3项目模块图 4项目使用到的技术4.1后端技术 Spring Framework SpringMVC: MVC框架

Spring secutity|Shiro: 安全框架 Spring session: 分布式Session管理MyBatis: ORM框架 MyBatis Generator: 代码生成 Druid: 数据库连接池 Jsp|Velocity|Thymeleaf: 模板引擎ZooKeeper: 协调服务 Dubbo: 分布式服务框架 TBSchedule|elastic-job: 分布式调度框架Redis: 分布式缓存数据库 Quartz: 作业调度框架 Ehcache: 缓存框架 ActiveMQ: 消息队列 Solr|Elasticsearch: 分布式全文搜索引擎FastDFS: 分布式文件系统 Log4J: 日志管理 Swagger2: 接口文档 sequence: 分布式高效ID生产 https://www.sodocs.net/doc/db5793744.html,/yu120/sequence AliOSS|Qiniu: 云存储 Protobuf|json: 数据传输 Jenkins: 持续集成工具 Maven|Gradle: 项目构建管理

GoogleProtoBuf开发者指南

ProtoBuf开发指南 - 非官方不完整版 这个文档用于指导开发的,属于非官方发布版本进行选译的,并不完整。供参考使用。 1 概览 欢迎来到protocol buffer的开发者指南文档,一种语言无关、平台无关、扩展性好的用于通信协议、数据存储的结构化数据串行化方法。 本文档面向希望使用protocol buffer的Java、C++或Python开发者。这个概览介绍了protocol buffer,并告诉你如何开始,你随后可以跟随编程指导 ( https://www.sodocs.net/doc/db5793744.html,/apis/protocolbuffers/docs/tutorials.html )深入了解protocol buffer编码方式 ( https://www.sodocs.net/doc/db5793744.html,/apis/protocolbuffers/docs/encoding.html)。API 参考文档 ( https://www.sodocs.net/doc/db5793744.html,/apis/protocolbuffers/docs/reference/overview .html )同样也是提供了这三种编程语言的版本,不够协议语言 ( https://www.sodocs.net/doc/db5793744.html,/apis/protocolbuffers/docs/proto.html )和样式( https://www.sodocs.net/doc/db5793744.html,/apis/protocolbuffers/docs/style.html )指导都是编写 .proto 文件。 1.1 什么是protocol buffer ProtocolBuffer是用于结构化数据串行化的灵活、高效、自动的方法,有如XML,不过它更小、更快、也更简单。你可以定义自己的数据结构,然后使用代码生成器生成的代码来读写这个数据结构。你甚至可以在无需重新部署程序的情况下更新数据结构。 1.2 他们如何工作 你首先需要在一个 .proto 文件中定义你需要做串行化的数据结构信息。每个ProtocolBuffer信息是一小段逻辑记录,包含一系列的键值对。这里有个非常简单的 .proto 文件定义了个人信息: message Person { required string name=1; required int32 id=2; optional string email=3; enum PhoneType {

Ubuntu14.04的caffe编译及安装

Caffe Caffe CaffecuDNNAlexNetK40 1.17ms. Caffe BSD-2

sudo apt-get install build-essential # sudo apt-get install libprotobuf-dev libleveldb-dev libsnappy-dev libop encv-dev libhdf5-serial-dev protobuf-com sudo apt-get install --no-install-recommends libboost-all-dev CUDA7.5 Nvidia Ubuntudeb , sudo dpkg -i cuda-repo-ubuntu1404-7-5-local_7.5-18_amd64.deb sudo apt-get update

sudo apt-get install cuda sudo ldconfig /usr/local/cuda/lib64 660 sudo apt-get install nvidia-cuda-toolkit sudo apt-get install nvidia-352 sudo reboot Atlas sudo apt-get install libatlas-base-dev pythonpipeasy_install wget --no-check-certificate https://bootstrap.pypa.io/ez_setup.py sudo python ez_setup.py --insecure wget https://bootstrap.pypa.io/get-pip.py sudo python get-pip.py python sudo apt-get install libblas-dev liblapack-dev libatlas-base-dev gfortr an python-numpy

comake使用详解

Comake2使用详解 1、适用用户范围: 第一次使用comake2工具 使用comake2搭建环境:这时用户不需要关心COMAKE文件细节,和第一次使用comake2工具时的情形差不多,第一次使用comake2工具初始化环境 $mkdir --parent ps/se/ac/make $cd ps/se/ac/make $comake2 -S $comake2 -UB comake2 -S //初始化COMAKE文件 comake2 -S表示从平台最新基线版本获取依赖列表;comake2 -S -r 1.0.1.0表示从平台1.0.1.0版本获取依赖列表友情提示:如果你的代码库里已有COMAKE文件,可跳过这一步;如果你的模块路径是ps/se/ac/make,请cd ps/se/ac/make再执行comake2 -S命令 comake2 -UB //下载并编译依赖代码 2、comake2命令 $ comake2 -h comake[com make]能够自动帮助用户搭建环境,并且生成Makefile工具. 程序会读取目录下面的COMAKE文件,产生Makefile和环境.用户需要提供这个COMAKE文件. 参数: -h --help 查看帮助 -D --debug 开启debug选项[默认不打开].-D -D可以查看更多调试信息. -S --scratch 创建一个默认的COMAKE文件 -r --revision 从平台检出模块cvspath指定的TAG对应的依赖列表,配合-S使用,如-S -r 1.0.0.0 -E --export-configs 导出模块的4位版本依赖,存放在COMAKE.CONFIGS下面.比如-E public/ub@1.0.0.0 -W --watch-configs 查看本地依赖模块.-W -W可以查看模块引入来源.-W -W -W可以查看依赖模块的依赖. -I --import-files 在解释COMAKE文件之前导入模块 -C --change directory 切换到directory下面执行[默认当前目录] -Q --quiet 安静模式[默认不打开] -U --update-configs 更新环境 -B --build-configs 构建环境 -F --force 构建环境时强制进行[默认不进行] -e --export-local-configs 导出本地环境到CONFIGS.SCM文件 -f --scmfile= 重现编译环境 -d --devdiff 存在本地修改的共同开发依赖列表(多模块共同开发时适用) -J --make-thread-number= 如果模块使用COMAKE生成的Makefile的话,编译线程数[默认是4] -j --modules-thread-number= 并发下载、编译模块的线程数[默认是1] -K --keep-going 构建/更新环境中途出错的话,忽略错误继续[已废弃] -P --pretreatment 生成Makefile时不进行预处理[默认进行预处理] -O --quot-all-deps 生成Makefile时引用所有头文件依赖[默认过滤目录外依赖]

Protobuf编码详解

prtotocol buffer是google于2008年开源的一款非常优秀的序列化反序列化工具,它最突出的特点是轻便简介,而且有很多语言的接口(官方的支持C++,Java,Python,C,以及第三方的Erlang, Perl等)。本文从protobuf如何将特定结构体序列化为二进制流的角度,看看为什么Protobuf如此之快。 一,示例 从例子入手是学习一门新工具的最佳方法。下面我们通过一个简单的例子看看我们如何用protobuf 的C++接口序列化反序列化一个结构体。 1,编辑您将要序列化的结构体描述文件Hello.proto 每个结构体必须用message来描述,其中的每个字段的修饰符有required, repeated和optional 三种,required表示该字段是必须的,repeated表示该字段可以重复出现,它描述的字段可以看做C语言中的数组,optional表示该字段可有可无。 同时,必须人为地为每个字段赋予一个标号field_number,如上图中的1,2,3,4所示。更详细的proto文件的编写规则见这里。 2,用protoc工具“编译”Hello.proto protoc工具使用的一般格式是: protoc -I=$SRC_DIR --cpp_out=$DST_DIR $SRC_DIR/xxx.proto 其中SRC_DIR是proto文件所在的目录,DST_DIR是编译proto文件后生成的结构体处理文件的目录 之后会生成对结构体Hello.proto中描述的各字段做序列化反序列化的类 3, 编写序列化进程https://www.sodocs.net/doc/db5793744.html,

我们用set方法为结构体中的每个成员赋值,然后调用SerializeToOstream将结构体序列化到文件log中。 并编译它: 4,编写反序列化进程https://www.sodocs.net/doc/db5793744.html, 用ParseFromIstream将文件中的内容序列化到类Hello的对象msg中。 并编译它: , 5,做序列化和反序列化操作 上面只是一个简单的例子,并没有对protobuf的性能做测试,protobuf的性能测试详见这里。

Ubuntu下安装Caffe

Ubuntu下安装Caffe 安装需要的软件: 1. Ubuntu14.0.4 2. cuda-repo-ubuntu1504-7-5-local_7.5-18_amd64 3. caffe-master 安装Ubuntu的过程在这里不做介绍。系统安装好了之后,执行下面的操作。 在线安装的步骤,在此之前将更新源换成163的,下载速度会快很多: 1. sudo apt-get update 2. sudo apt-get upgrade 以上更新系统相关软件 3. sudo apt-get install build-essential 4. sudo apt-get install libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libboost-all-dev libhdf5-serial-dev 5. sudo apt-get install libgflags-dev libgoogle-glog-dev liblmdb-dev protobuf-compiler 6. sudo apt-get install libatlas-base-dev python-dev vim 以上为在线安装的依赖项需要按顺序执行 7. 切换到cuda安装包的目录下,执行sudo dpkg -i cuda-repo-ubuntu1504-7-5- local_7.5-18_amd64 8. sudo apt-get update 9. sudo apt-get install -y cuda 以上为安装CUDA驱动。(Nvidia驱动在这个过程也会自动装好) 10. vim ~/.bashrc 11. 按i进入编辑状态,将光标移到最下面一行。输入export PATH=/usr/local/cuda- 7.5/bin:$PATH 12. 输入export LD_LIBRARY_PATH=/usr/local/cuda- 7.5/lib64:$LD_LIBRARY_PATH,按:wq保存并退出 13. source ~/.bashrc 以上为配置环境变量 14. 将下载好的caffe源文件解压缩,即caffe-master然后切到那个目录中执行cp Makefile.config.example Makefile.config 15. vim Makefile.config 16. 按i进入编辑状态,修改:CUDA_DIR :=/usr/local/cuda-7.5 17. 如果使用了MATLAB或者Python需要按照Makefile.config文件中的提示在 Makefile.config进行相应的路径修改即可。 以上为配置Caffe相关路径 18. make all 19. make test 20. make runtest

Unity3D客户端和Java服务端使用Protobuf

Unity3D客户端和Java服务端使用Protobuf 本文测试环境: 系统:WINDOWS 7(第3、6步)、OS X 10.9(第4步)软件:VS 2012(第3、6步)、Eclipse(第5、6步) 硬件:iPad 2(第4步)、Macbook Pro Mid 2012(第4步)文章目录: 1、关于Protobuf的C#实现 2、为什么有些Protobuf发布到iOS就用不了,甚至有些在PC都用不了? 3、手动处理C#版本的Protobuf 3.1、创建一个C#工程,先手动创建每一个要通过Protobuf序列化或反序列化的数据模型类,然后导出dll 3.2、创建一个用于序列化的C#工程,然后运行生成dll 3.3、将上面两个工程生成的dll拖到unity中 4、在Unity中反序列化Protobuf 5、服务端Java也用Protobuf 6、太烦了?!客户端也要自动处理Protobuf1、关于Protobuf 的C#实现 首先,U3D里面Protobuf使用的是C#的实现,那么目前有几个可选的C#实现:

C#: https://www.sodocs.net/doc/db5793744.html,/p/protobuf-csharp-port C#: https://www.sodocs.net/doc/db5793744.html,/p/protosharp/ C#: https://https://www.sodocs.net/doc/db5793744.html,/protobuf/ C#/.NET/WCF/VB: https://www.sodocs.net/doc/db5793744.html,/p/protobuf-net/我这里选用的是https://www.sodocs.net/doc/db5793744.html,/p/protobuf-net/(你可以在 https://https://www.sodocs.net/doc/db5793744.html,/p/protobuf-net/downloads/list 这里下载到他的代码和工具),它比较好的一点是,提供了各种平台的支持,解压后在“Full”目录中可以看到各个平台的支持看到里面的unity了吗,它里面的protobuf-net.dll将是我们准备用到的。2、为什么有些Protobuf发布到iOS就用不了,甚至有些在PC都用不了? a、Protobuf使用了JIT,即在运行时动态编译,而这个特性在Unity发布到iOS时候是不支持的。因此,会导致你在PC 上可以正常运行,发布到iOS就有问题。 b、Protobuf是基于.net 2.0以上框架写的,而Unity仅支持.net 2.0,或者有些使用2.0中比较多的特性,而你在Unity 中发布设置了.net 2.0的子集。后者你只需要在Player setting中修改设置就可以了。 上面两项也可适用于其它第三方类库,如果你自己下载了一个在PC上或C#里面能正常使用的类库,在U3D里面就不能用了,那么请检查是否是上面两条原因导致的。3、手动

分布式数据库原理及应用实验10-redis与hbase安装

《分布式数据库原理及应用》 实验报告 实验10:redis与hbase安装

一、实验目的 1.掌握redis与hbase的特点。 2.掌握redis与hbase的安装。 二、实验环境 操作系统自定 三、实验内容与实验过程及分析(写出详细的实验步骤,并分析实验结果) 实验内容: 1.梳理mongodb,neo4j,memcache,redis,hbase的异同 2.完成redis的安装与测试 3.完成hbase的安装与测试 实验步骤: 1.梳理mongodb,neo4j,memcache,redis,hbase的异同 Redis 所用语言:C/C++ 特点:运行异常快使用许可: BSD 协议:类 Telnet 有硬盘存储支持的内存数据库 Master-slave复制 虽然采用简单数据或以键值索引的哈希表,但也支持复杂操作。 Redis支持事务,支持哈希表,支持排序sets,支持队列(阻塞/非阻塞),支持将数据设置成过期数据(类似快速缓冲区设计) Pub/Sub允许用户实现消息机制。最佳应用场景:适用于数据变化快且数据库大小可遇见(适合内存容量)的应用程序。 例如:股票价格、数据分析、实时数据搜集、实时通讯。 Master-slave复制:如果同一时刻只有一台服务器处理所有的复制请求,这被称为Master-slave复制,通常应用在需要提供高可用性的服务器集群。 MongoDB 所用语言:C++ 特点:保留了SQL一些友好的特性(查询,索引) 使用许可: AGPL(发起者: Apache)协议: Custom binary( BSON) Master/slave复制(支持自动错误恢复,使用 sets 复制)内建分片机制 支持javascript表达式查询可在服务器端执行任意的 javascript函数 update-in-place支持比CouchDB更好。在数据存储时采用内存到文件映射对性能的关注超过对功能的要求建议最好打开日志功能(参数–journal) 最佳应用场景:适用于需要动态查询支持;需要使用索引而不是 map/reduce功能;需要对

win7离线安装tensorflow和keras

Win7_64离线安装tensorflow+keras 亲测安装成功 1. 安装Anaconda 安装包选择:Anaconda3-4.2.0-windows-x86_64(内置python3.5编译环境) 安装目录:C:\ Anaconda3。 注意最后应将路径加入Path的选项勾上,否则可能会导致无法启动Anaconda。 安装好后要检查一下python是否正确使用。如果设置环境变量后仍不能正常使用,则重新安装Anaconda3-4.2.0-windows-x86_64。 2. 下载并解压protoc- 3.1.0-win32,将bin文件夹中的protoc.exe拷贝到C:\windows\system32中; 3.进入到C:\Anaconda3\Lib\site-packages目录下,新建tensorflow文件夹用来存放tensorflow 的安装文件; 4. 下载并解压protobuf-3.1.0.tar,将解压后的文件protobuf-3.1.0拷贝到新建的tensorflow 文件夹中,并且将protoc.exe文件拷贝到protobuf-3.1.0\src文件中; 5. 通过cmd命令进入到protobuf-3.1.0\python的目录下,执行命令python setup.py install; 6. 安装tensorflow:将安装包tensorflow-1.0.1-cp35-cp35m-win_amd64.whl复制到Anaconda3\Lib\site-packages\tensorflow文件中,然后通过cmd命令进入到Anaconda3\Lib\site-packages\tensorflow目录下,执行命令pip install tensorflow-1.0.1-cp35-cp35m-win_amd64.whl进行安装,待安装结束后,在Ipython命令行下输入import tensorflow as tf,若不报错则说明tensorflow安装成功。 7.下载keras源文件,并cd到下载的keras 文件夹的路径,执行命令:sudo python setup.py install。可能重复几次即可。 8.出现”sudo 不是内部命令”错误,可以将sudo文件粘贴在C:\Anaconda3下,并增至到环境变量中“;C:\Anaconda3” 9.sudo文件制作: 将下面的代码全部粘贴在新建文本文件中,并重命名文本文件为sudo.vbs (注意后缀改成了.vbs)。将sudo.vbs 所在路径添加到环境变量PATH 中 'ShellExecute 方法 '作用: 用于运行一个程序或脚本。 '语法 ' .ShellExecute "application", "parameters", "dir", "verb", window

Hadoop2.4、Hbase0.98、Hive集群安装配置手册

Hadoop、Zookeeper、Hbase、Hive 集群安装配置手册?

运行环境?
? 机器配置 虚机 CPU?E5504*2?(4 核心)、内存 4G、硬盘 25G ? 进程说明 QuorumPeerMain DFSZKFailoverController JournalNode ZooKeeper?ensemble?member Hadoop?HA 进程,维持 NameNode 高可用 Hadoop HA 进程,JournalNode 存储 EditLog, 每次写数据操作有大多数(>=N+1)返回成功时 即认为该次写成功,保证数据高可用 Hadoop?HDFS 进程,名字节点 HadoopHDFS 进程, serves?blocks Hadoop YARN 进程,负责 Container 状态的 维护,并向 RM 保持心跳。 Hadoop?YARN 进程,资源管理 Hadoop?MR1 进程, 管理哪些程序应该跑在哪 些机器上,需要管理所有 job 失败、重启等 操作。 Hadoop?MR1 进程,manages?the?local?Childs Hive 进程 HBase 主节点 HBase?RegionServer,?serves?regions 可以通过该服务查看已经运行完的 mapreduce 作业记录?
NameNode DataNode NodeManager ResourceManager JobTracker?
TaskTracker RunJar HMaster HRegionServer JobHistoryServer 主机/hostname 10.12.34.14/https://www.sodocs.net/doc/db5793744.html, 系统版 本 Centos 5.8?
应用 mysql mysqld?
服务进程?

关于Windows环境下protobuf初步学习指南

关于protobuf初步学习指南 撰写人:马宇昌 时间:2011-12-28 本文档设置了文档结构,如果不方便阅读,选择视图->文档结构图进行辅助阅读。 前言 关于protobuf资料与源码可在官方网站以及下面站点寻找 https://www.sodocs.net/doc/db5793744.html,/p/protobuf/ https://www.sodocs.net/doc/db5793744.html,/p/protobuf/downloads/list https://www.sodocs.net/doc/db5793744.html,/intl/zh-CN/apis/protocolbuffers/docs/overview.html 1.protobuf简介(引用网络上的内容,目的是对protobuf有简洁的了解) protobuf是google提供的一个开源序列化框架,类似于XML,JSON这样的数据表示语言,其最大的特点是基于二进制,因此比传统的XML表示高效短小得多。虽然是二进制数据格式,但并没有因此变得复杂,开发人员通过按照一定的语法定义结构化的消息格式,然后送给命令行工具,工具将自动生成相关的类,可以支持java、c++、python等语言环境。通过将这些类包含在项目中,可以很轻松的调用相关方法来完成业务消息的序列化与反序列化工作。 protobuf在google中是一个比较核心的基础库,作为分布式运算涉及到大量的不同业务消息的传递,如何高效简洁的表示、操作这些业务消息在google这样的大规模应用中是至关重要的。而protobuf这样的库正好是在效率、数据大小、易用性之间取得了很好的平衡。 2.下载protobuf,我下载的是2.4.1版本 从https://www.sodocs.net/doc/db5793744.html,/p/protobuf/downloads/list网站下载需要的版本,目前最新的是2.4.1版本。下载protobuf-2.4.1.zip到H盘,解压后(最好选择右击压缩文件,解压到protobuf-2.4.1),找到vsprojects文件夹,阅读readme文件,里面介绍在windows下protobuf的使用方法。3.安装编译protobuf (1)打开libprotobuf工程 vsprojects文件夹中有很多项目工程,它们属于同一个解决方案。使用VS2008打开libprotobuf 工程,这里可能会遇到版本转换的问题,因为vsprojects中的protobuf是2005版本的。只要正常转换就可以了,不需要备份旧有的版本。转换后的protobuf解决方案如图1所示 图1 protobuf解决方案 (2)编译解决方案 右击解决方案protobuf->生成解决方案,或者选择生成->生成解决方案,或者分别编译各个

sparkonyarn安装配置手册

一.ssh无密码登陆 1.安装ssh yum install openssh-server 2.产生key ssh-keygen -t rsa -P "" Enter file in which to save the key (/root/.ssh/id_rsa):(按回车)3.使用key cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys 二.安装配置JDK 1.解压 tar -zxvf jdk-7u71-linux-x64.tar.gz 2.打开全局变量配置文件 vim /etc/profile 3.在该文件末尾增加如下语句 4.使配置生效 source /etc/profile 5.确认JDK安装成功 三.安装配置hadoop 1.解压 tar -zxvf hadoop-2.2.0.tar.gz 2.配置hadoop-env.sh cd /opt/hadoop-2.2.0/etc/hadoop vim hadoop-env.sh 增加如下配置: 3.在/etc/profile里增加如下配置: 尤其最后两行,否则会导致启动错误。 4.配置core-site.xml cd /opt/hadoop-2.2.0/etc/hadoop vim core-site.xml 增加如下配置

还需增加如下配置,否则找不到库 hadoop.native.lib true 5.配置hdfs-site.xml cd /opt/hadoop-2.2.0/etc/hadoop vim hdfs-site.xml 增加如下配置 6.配置mapred-site.xml cd /opt/hadoop-2.2.0/etc/hadoop cp mapred-site.xml.template mapred-site.xml vim mapred-site.xml 增加如下配置 7.使配置生效 source hadoop-env.sh 8.启动hadoop 总是报如下错误 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 原因是apache官网提供的二进制包,里面的native库,是32位的,而服务器是64位的。 9.下载Hadoop 2.2.0 源码包,并解压 10.安装相关软件

protobuf的安装和使用

最近领导分配了一个任务,这个工程挺高端的,主要以前从没有搞过,其中里面有protobuf,以前从来没有听说过这个东西,最近在网上看了一些高人的帖子,才知道protobuf是什么云云了,我的理解是,例如我们要用C++写个什么工程,C++是面向对象的,我们要写很多类,估计都得写上上百行,上千行的代码,但是现在用这个protobuf,就可以省很多是,我们只需要写消息包,然后编译,protobuf就会根据这个消息包自动生成两个文件.cc和.h,.h这两个文件中就有很多类,供我们调用。 现在说明怎样在Ubuntu下安装protobuf。网上有人说,他用了很多版本的protobuf 都没有成功,最终用的2.5.0版本才成功,于是我就直接安装了这个版本,至于其他版本成不成功,我就不知道了。首先下载protobuf源码包 在Ubuntu的终端里输入:$ wget https://www.sodocs.net/doc/db5793744.html,/files/protobuf-2.5.0.tar.gz 这是在官网下载,但是我等了很长时间都没有下载下来,最后我在CSDN上下载下来了 下载之后解压:$ tar xvzf protobuf-2.5.0.tar.gz 进入到解压后的目录:$ cd protobuf-2.5.0 进行执行:$ ./configure 在执行./configure这个命令之前最好把vim ,g++,make安装好,不然在执行./configure的时候可能会出现错误,上面三个安装的命令:$sudo apt-get install vim$sudo apt-get install g++$sudo apt-get install make ./configure成功之后,接下来是如下几步: $make $make check $make install //在执行这一步的时候,我出现了错误,错误的意思是执行的权限不够,如果是这样的话,$make install 这条命名就换成$sudo make install 下面我们要修改一下配置文件:$ vim ~/.profile 在打开的文件中,在文件末尾添加如下代码: export LD_LIBRARY_PA TH=$LD_LIBRARY_PA TH:/usr/local/lib 然后保存退出,接下来执行: $ source ~/.profile 使刚才修改的配置文件生效,接下来执行:$protoc --version 如果上面的步骤一切顺利的话,那么就会在终端显示protobuf的版本号,如下 下面我们来测试一下,在测试之前我们最好先建立一个文件夹,例如上面的proto,接下的操作都在这个文件夹下进行。 我们先用vim创建并编辑.proto文件,例如:$ vim msg.proto 内容如下:

Ubuntu 14.04 + caffe安装配置详细指南

Ubuntu14.04+ caffe安装配置详细指南 Edit: Kevin (Q&A laichunren@https://www.sodocs.net/doc/db5793744.html,) Reference: https://www.sodocs.net/doc/db5793744.html,/shiorioxy/article/details/52652831 特别说明 网上关于caffe的安装教程非常多,但是对于每一步是否操作成功,出现了什么样的错误又该如何处理却没有给出说明。因为大家的操作系统的环境千差万别,按照博客中的教程一步步的安装,最后很可能失败,有的教程甚至省略了一些细节部分,让小白更不知道如何判断每一步是否操作成功,如何处理出现的错误。 作者花费了很长时间才成功地将caffe装完,期间遇到好多错误,多次重装操作系统。现在将经验写下来,一方面为了和大家分享讨论,另一方面是为了记录一下。 1.Caffe 官网地址:https://www.sodocs.net/doc/db5793744.html,/ 2.本文使用2016年9月27日下载的caffe-master版本,运行平台为:Ubuntu 14.04, CUDA8.0,cuDNN v5.1,Intel Parallel Studio XE Cluster 2015,OpenCV 3.1.0, Matlab 2014b. pycharm community,anaconda( python, numpy, scipy, matplotlib, et.al.) 版本说明: 1.Ubuntu 版本问题 Ubuntu16.04是目前最新的系统,但装完cuda8.0显卡驱动,重启系统后一直在登录界面循环而无法进入,原因是ubuntu16.04与cuda8.0不兼容。Ubuntu15.04在cuda 官网上不再提供相关驱动文件(只有ubuntu16.04和ubuntu14.04的),因此还是选择

基于ubuntu14安装caffe及python接口过程记录_20170116

基于ubuntu14安装caffe及python接口过程记录 2017-1-16 1.安装ubuntu14操作系统 现在我的安装的深度学习的软件大都在台式机上进行的,今天要装的是caffe框架。我的操作系统是ubuntu14.04。 2.安装caffe 2.1先是安装caffe依赖项: sudo apt-get install git sudo apt-get install libprotobuf-dev liblevelb-dev libsnappy-dev libopencv-dev libhdf5-serial-dev protobuf-compiler sudo apt-get install --no-install-recommends libboost-all-dev sudo apt-get install libatlas-base-dev(这里的选择在后面caffe的配置文件中会需要配置。如果换过,也要记得后面的配置需要修改。) sudo apt-get install python-dev sudo apt-get install libgflags-dev libgoogle-glog-dev liblmdb-dev 安装开发所需要的一些基本的包(不一定需要), sudo apt-getinstall build-essential 2.2下载caffe并修改Makefile.config.example文件 git clone https://https://www.sodocs.net/doc/db5793744.html,/bvlc/caffe.git cd caffe/ mv Makefile.config.example Makefile.config 去掉CPU_ONL Y:=1的注释,即让caffe不采用GPU运行。 将# CPU_ONLY = 1前面的#去掉,因为这里没有安装GPU,需要使用CPU运行。BLAS := atlas, 这是默认设置,如果不是安装的这个,则需要修改。具体修改,该语句上面有注释提示。去掉WITH_PYTHON_LAYER := 1的注释。其他的不动。 2.3测试caffe安装成功 Make all Make test Make runtest 出现类似以下的画面:

protobuf消息定义原则

1 网络通信涉及到消息的定义,不管是使用二进制模式、xml、json等格式。消息都可以大体的分为命令消息、请求消息、应答消息和指示消息4大消息类型。一般情况下每个消息还还有包含一个序列号和一个能够唯一区分类型类型的消息编号,编号可以使用字符串、整数或者枚举等。

1. 使用protobuf 的enum定于消息的编号,也就是消息的类型。 我会为每个系统都定义一个MSG枚举。包含系统用到的所有消息的枚举编号 01 enum MSG 02 { 03 Login_Request = 0x00001001; 04 Login_Response = 0x00001002; 05 06 XXX_Request = 0x00001003; 07 XXX_Request = 0x00001004; 08 09 XXX_Command = 0x00002001; 10 11 XXX_Indication = 0x00003001; 12 } 2. 会为每个具有消息体的消息定义一个对应的protobuf message。例如Login_Request会有一个对应LoginRequest消息。 1 message LoginRequest 2 { 3 required bytes username = 1; 4 required string password = 2; 5 }

3. 会为每个消息大类定义一个消息,例如命令消息全部包含在message Command中,请求消息全部包含在Request消息中,应答消息全部包含在Response消息中,指示消息全部包含在Indication 消息中。 也就是我会有下面4个protobuf message: 01 message Command 02 {// 包含所有的 XXXCommand 消息 03 } 04 message Request 05 {// 包含所有的 XXXRequest消息 06 } 07 message Response 08 {// 包含所有的Response消息 09 } 10 message Indication 11 {// 包含所有的Indication消息。 12 } 4. 对于应答消息,并非总是成功的,因此在应答消息中还会包含另外2个字段。一个用于描述应答是否成功,一个用于描述失败时的字符串信息。对于有多个应答的消息来说,可能会包含是否为最后一个应答消息的标识。应答的序号(类似与网络数据包被分包以

hadoop2.7.1安装手册

hadoop2.7.1安装手册 1、准备阶段述 ·hadoop-2.7.1.tar.gz安装包 ·jdk1.6以上版本,这里统一使用jdk1.8版本jdk-8u45-linux-x64.rpm ·CentOS-6.4安装包 2、安装步骤概述 2.1、安装Centos-6.4系统 2.2、安装jdk1.8 2.4、如若使用64位机器,请编译hadoop-2.7.1文件 2.4、zookeeper安装,单机安装以及集群安装 2.5、关闭linux防火墙,安装已编译好的hadooop安装包以及配置QJM,或者配置High Availability With NFS,验证hadoop是否安装成功 2.6、sqoop的编译与安装 2.7、Mysql安装 2.8、HBASE安装 2.9、HIVE安装 3、集群规划 集群规划:

4、安装具体步骤 4.1、安装Centos-6.4系统 (1)、下载64位的CentOS-6.4镜像文件 CentOS-6.4-x86_64-bin-DVD1.iso CentOS-6.4-x86_64-bin-DVD2.iso 系统安装只用到CentOS-6.4-x86_64-bin-DVD1.iso这个镜像,第二个镜像是系统自带的软件安装包 下载完成之后,使用光盘刻录软件将ISO镜像文件刻录在CD或者DVD光盘里得到一张安装光盘 (2)、安装CentOS

·使用安装介质启动电脑出现如下界面 ·选择Install or upgrade an existing system,并跳过media test ·出现引导界面,点击next

·语言选择,选“English”,以防止出现乱码 ·键盘布局选择:U.S.English ·选择“Basic Storage Devies”,点击next

相关主题