苹果7plus还值得买吗和苹果8哪个好

Maven Repository: bouncycastle >> bouncycastle-jce-jdk13 >> 112 >>
Bouncycastle Jce Jdk13
Date(Nov 08, 2005) Files (845 KB) Repositories
&!-- /artifact/bouncycastle/bouncycastle-jce-jdk13 --&
&dependency&
    &groupId&bouncycastle&/groupId&
    &artifactId&bouncycastle-jce-jdk13&/artifactId&
    &version&112&/version&
&/dependency&
// /artifact/bouncycastle/bouncycastle-jce-jdk13
compile group: 'bouncycastle', name: 'bouncycastle-jce-jdk13', version: '112'
// /artifact/bouncycastle/bouncycastle-jce-jdk13
libraryDependencies += &bouncycastle& % &bouncycastle-jce-jdk13& % &112&
&!-- /artifact/bouncycastle/bouncycastle-jce-jdk13 --&
&dependency org=&bouncycastle& name=&bouncycastle-jce-jdk13& rev=&112&/&
// /artifact/bouncycastle/bouncycastle-jce-jdk13
    @Grab(group='bouncycastle', module='bouncycastle-jce-jdk13', version='112')
;; /artifact/bouncycastle/bouncycastle-jce-jdk13
[bouncycastle/bouncycastle-jce-jdk13 &112&]
# /artifact/bouncycastle/bouncycastle-jce-jdk13
'bouncycastle:bouncycastle-jce-jdk13:jar:112'
Include comment with link to declaration
Compile Dependencies (0)Category/License
Group / ArtifactVersionUpdates
Web site developed by
Powered by:为开发者提供全方位培训服务
提供开发者更好的开发支持
本文档专供需要对Kafka组件进行Kafka二次开发的用户使用。本指南主要适用于具备Java开发经验的开发人员。
Kafka是一个分布式的消息发布-订阅系统。 它采用独特的设计提供了类似JMS的特性,主要用于处理活跃的流式数据。
Kafka有很多适用的场景:消息队列、行为跟踪、运维数据监控、日志收集、流处理、事件溯源、持久化日志等。
Kafka有如下几个特点:
l消息持久化到磁盘
l分布式系统易扩展
l支持online和offline场景
Kafka维护的同一类的消息称为一个Topic。
每一个Topic可以被分为多个Partition,每个Partition对应一个可持续追加的、有序不可变的log文件。
将消息发往Kafka topic中的角色称为Producer。
从Kafka topic中获取消息的角色称为Consumer。
Kafka集群中的每一个节点服务器称为Broker。
keytab文件
存放用户信息的密钥文件。应用程序采用此密钥文件在集群中进行API方式认证。
2. 开发环境准备
本开发指南提供了华为FusionInsight产品Kafka组件中基于开源Kafka的Eclipse样例工程和常用接口说明,便于开发者快速熟悉Kafka系统。为了运行华为FusionInsight 产品Kafka的样例代码,你需要完成下面的操作。
开发环境准备分为Windows客户端和Linux客户端;应用开发一般是在windows环境下进行;应用程序运行及Topic操作在Linux环境下进行。
Windows客户端安装步骤
步骤1 &确认华为Kafka组件已经安装,并正常运行。
步骤2 &客户端机器安装Eclipse和JDK程序,安装要求如下:
lEclipse使用3.0及以上版本。
lJDK使用1.7及以上版本。
步骤3 &安装跟JDK版本对应的JCE文件。
1. 根据链接找到JCE文件的下载路径。
&JDK 1.7对应的JCE文件下载路径:
&JDK 1.8对应的JCE文件下载路径:
2. 选中界面上的&Accept License Agreement&。
3. 单击&Download&下的zip包,下载到本地机器。
4. 解压缩zip包,获取如下Jar文件。
&local_policy.jar
&US_export_policy.jar
5. 拷贝步骤3.4中的两个Jar文件到如下路径,具体操作也可参考步骤3.4中解压缩后的&README.txt&文件。
Linux:&java-home&/lib/security
Windows:&java-home&\lib\security
其中&java-home&是指JRE的安装目录,举例说明如下 &java-home&目录说明表所示。
Linux:&/home/user1/jdk1.8.0&
Linux:&/home/user1/jdk1.8.0/jre&
Windows:&C:\jdk1.8.0&
Windows:&C:\jdk1.8.0\jre&
步骤4 &客户端机器的时间与集群的时间要保持一致,时间差要小于5分钟。
步骤5 &下载Kafka客户端程序。
1. 登录FusionInsight Manager系统。
在浏览器地址栏中输入访问地址,地址格式为&http://FusionInsight Manager系统的WebService浮动IP地址:8080/web&。
例如,在IE浏览器地址栏中,输入&http://10.0.0.1:8080/web&。
2. 选择&Services & Kafka & Download Client & All Client Files&,下载客户端程序到本地机器。
步骤6 &解压缩Kafka客户端程序,并双击该目录下的&install.bat&脚本,自动配置客户端工程。
解压目录下的&Kafka/kafka-examples&文件夹即为样例工程文件夹。
步骤7 &配置客户端网络连接,确保本地机器能与解压目录下&hosts&文件中所列出的各主机在网络上互通。
本地hosts文件存放路径举例:
lwindows:&C:\WINDOWS\system32\drivers\etc\hosts&
llinux:&/etc/hosts&
步骤8 &导入样例工程到Eclipse开发环境。
1. 选择&File & Import & General & Existing Projects into Workspace & Next &Browse&。
显示&浏览文件夹&对话框。
2. 选择样例工程文件夹,单击&Finish&。
步骤9 &设置Eclipse的文本文件编码格式,解决乱码显示问题。
1. 在Eclipse的菜单栏中,选择&Window & Preferences&弹出&Preferences&窗口。
2. 在左边导航上选择&General & Workspace&,在&Text file encoding&区域,选中&Other&,并设置参数值为&UTF-8&,单击&Apply&后,单击&OK&,如下设置Eclipse的编码格式图所示。
Linux客户端安装步骤
步骤1 &确认华为Kafka组件已经安装,并正常运行。
步骤2 &客户端机器的时间与集群的时间要保持一致,时间差要小于5分钟。
步骤3 &下载Kafka客户端程序。
1. 登录FusionInsight Manager系统。
在浏览器地址栏中输入访问地址,地址格式为&http://FusionInsight Manager系统的WebService浮动IP地址:8080/web&。
例如,在IE浏览器地址栏中,输入&http://10.0.0.1:8080/web&。
2. 选择&Services & Kafka & Download Client&,下载客户端程序到本地机器。
步骤4 &上传安装包至Linux服务器上。
例如:上传至Linux服务器的&/opt/ client_install&目录。
步骤5 &登录Linux服务器,进入上传目录&/opt/client_install&,& 解压缩客户端安装包到当前目录
步骤6 &进入客户端安装包解压目录& /opt/client_install&, 执行以下命令,安装Kafka客户端:
install.sh 客户端安装目录
例如:客户端安装目录为&/opt/Kafka_Client&,则执行命令为:
./install.sh
/opt/Kafka_Client
步骤7 &初始化客户端环境变量。
进入安装目录&/opt/Kafka _Client&执行以下命令,导入环境变量信息。
source bigdata_env
步骤8 &如果集群启用了安全服务,则需要进行安全登录。
1. 从管理员处获取一个&Human-Machine&用户,用于登录集群并通过认证。例如:帐号john。
获取用户的方法,请参考《管理员指南》。
2. 执行kinit命令进行&Human-Machine&用户的安全登录。
kinit 用户名
kinit john
然后按照提示输入密码,无异常提示返回,则完成了用户的 kerberos认证。
步骤9 &进入安装目录下的Kafka/kafka/bin目录,执行
./kafka-topics.sh --list -zookeeper /&&Zookeeper集群IP:clientPort/kafka &
例如&./kafka-topics.sh --list --zookeeper 10.165.0.80:24002/kafka&, clientPort默认24002,&/kafka&是目前Kafka组件在Zookeeper上的规划目录,一般不会变。
如果可以正常执行并返回查询结果,则说明客户端安装成功,否则检查之前操作步骤是否有遗漏。
3. 开发指引
应用程序实例
Kafka是一个分布式消息系统,在此系统上我们可以做一些消息的发布和订阅操作,假定我们要开发一个Producer,让其每秒向Kafka集群某Topic发送一条消息,另外,我们还需要实现一个Consumer,订阅该Topic,实时消费该类消息。
开发过程与实现
步骤1 &若集群安装为安全版本,则需先创建账户并下载秘钥文件;非安全版本直接进入步骤2。
1. 登录FusionInsight Manager,并进入&System& User Management&页面,添加一个&Machine-Machine&用户。
2. 添加&Machine-Machine&用户成功后,在&Operation&列点击下载箭头状按钮,下载该用户的秘钥文件,解压得到keytab文件和krb5.conf。
3. 将下载的秘钥文件拷贝到kafka-examples工程的conf文件夹下。
4. 手动修改SecurityUtils.java文件中的USER_KEYTAB_FILE变量为下载得到的keytab文件名,并将USER_PRINCIPAL修改为创建的账户名。
步骤2 &编写Producer和Consumer代码。
1. 编写Producer代码。
部分代码请参考代码样例中Producer部分,完整代码请参考kafka-examples示例工程Producer.java。
2. 编写Consumer代码。
High Level Consumer部分代码请参考代码样例中Consumer部分,完整代码请参考kafka-examples示例工程Consumer.java。
Simple Consumer完整代码请参考kafka-examples示例工程SimpleConsumerDemo.java。
4. 运行及结果查看
Producer运行
1. 确保本地的hosts文件中配置了远程集群所有主机的主机名和业务IP映射关系。
2. 通过Eclipse可直接运行Producer.java,如下Eclipse打开Producer.java右键运行图所示:
3. 运行后弹出控制台窗口,可以看到,Producer正在向example-metric1这个topic发送消息,每秒一条。
Producer运行窗口
SimpleConsumerDemo运行
1. 通过Eclipse可右键执行Run As & Run Configurations,如下Run Configurations运行图所示:
2. 在弹出的配置框中,填写三个参数:本次消费的最小消息数、Topic名称、Partition号,中间用空格分割,如下图配置参数填写所示:
3. 点击运行后,在控制台可看到Producer之前发送的消息:
SimpleConsumerDemo运行窗口
Consumer运行
1. 同Producer一样,运行Consumer.java文件。
2. 点击运行后弹出控制台窗口,可以看到Consumer启动成功后,再启动Producer,即可看到实时接收消息:
Consumer.java运行窗口
5. 代码样例
5.1 Producer
Producer是消息生产者的角色,负责发布消息到Kafka Broker。
下面代码片段在com.huawei.bigdata.kafka.example.Producer类中,作用在于每秒向指定的Topic发送一条消息。
/**&*&启动执行producer,每秒发送一条消息。&&*/&public&void&run()&{&&&("Producer:&start.");&&&int&messageNo&=&1;&&&&&&while&(true)&&&{&&&&&String&messageStr&=&new&String("Message_"&+&messageNo);&&&&&producer.send(new&KeyedMessage&Integer,&String&(topic,&messageStr));&&&&&("Producer:&send&"&+&messageStr&+&"&to&"&+&topic);&messageNo++;&&&&&&&&&&//&每隔1s,发送1条消息&&&&&try&&&&&{&&&&&&&Thread.sleep(1000);&&&&&}&&&&&&&catch&(InterruptedException&e)&&&&&{&&&&&&&e.printStackTrace();&&&&&}&&&}&}
5.2 Consumer
每一个Consumer实例都属于一个Consumer group,每一条消息只会被同一个Consumer group里的一个Consumer实例消费(不同的Consumer group可以同时消费同一条消息)。
下面代码片段在com.huawei.bigdata.kafka.example.Consumer类中, 作用在于订阅指定Topic的消息。
/**&&*启动执行Consumer,订阅Kafka上指定topic消息。&&*/&&public&void&run()&{&&&("Consumer:&start.");&&&&&&&&&&&&Map&String,&Integer&&topicCountMap&=&new&HashMap&String,&Integer&();&&&topicCountMap.put(topic,&new&Integer(1));&&&Map&String,&List&KafkaStream&byte[],&byte[]&&&&consumerMap&=&consumer.createMessageStreams(topicCountMap);&&&List&KafkaStream&byte[],&byte[]&&&streams&=&consumerMap.get(topic);&&&&&&&&&&&&("Consumerstreams&size&is&:&"&+&streams.size());&&&&&&&&&&&&for&(KafkaStream&byte[],&byte[]&&stream&:&streams)&&&{&&&&&ConsumerIterator&byte[],&byte[]&&it&=&stream.iterator();&&&&&&&&&&&&&&&&&&while&(it.hasNext())&&&&&{&&&&&&&("Consumer:&receive&"&+&new&String(it.next().message())&+&"&from&"&+&topic);&&&&&}&&&}&&&&&&&&&&&&("Consumer&End.");&}
6. 常用接口
Kafka采用的接口同开源社区版本保持一致,详情请参见
请拨打热线400-822-9999
选择二次开发客服小组
提供您的公司信息以及问题描述
请选择反馈类型
远程实验室
Login To Download发送邮件失败Mail serv nested exception is javax.mail.MessagingException: Could not connect to SMTP host: , port: 465; nested exception is: javax.net.ssl.SSLHandshakeException: Received fatal alert: handshake_failure. Failed messages: javax.mail. MessagingException: Could not connect to SMTP host: , port: 465; nested exception is:javax.net.ssl.SSLHandshakeException: Received fatal alert: handshake_failure 这个问题的原因是因为jdk1.8中jce包的安全策略导致的问题,需要下载1.7版本的jce,将1.8的覆盖掉,就可以了 下载地址:/technetwork/java/javase/downloads/jce-7-download-432124.html 覆盖路径:%JAVA_HOME%/jre/lib/security下的local_policy.jar,US_export_policy.jar
最新教程周点击榜
微信扫一扫

我要回帖

更多关于 苹果7和苹果8区别大吗 的文章

 

随机推荐