今天终于知道错 下载LG是什么意思了,目测吧里知道的不

正在播放: >
> Excel 入库登记表你最好这样做
Excel 入库登记表你最好这样做
主讲老师:郭辉本课时长:72分钟课程评价:★★★★★适用人群:财务人员、税务人员、企业库管
促销价:¥40原价:¥60
课程导读学员心声购课须知
当企业购入存货或出售货物时,要对入库、出库情况进行管理,那么准确、快速和及时填制登记表并进行统计分析就是其中重要的管理环节。而如何实现各类登记表的高效输入、设置和表间数据计算以及函数统计往往是工作人员最关心的问题所在。本课程将利用入库登记表为例,全面详细、分步骤为您讲解登记表中数据日期如何避免错误输入的设置和高效计算,以及如何进行COUNTIF函数统计功能在表中的运用,帮您轻松解决各类登记表的使用和管理问题。课程大纲:一、辅助数据--数据验证辅助数据表二、数据验证--跨表数据验证设置方法三、数据验证--录入日期的上下限设置方法四、数据验证--录入数据的上下限设置方法五、数据验证--录入数据前的提醒设置六、数据验证--录入数据中的禁止设置七、基础操作--绝对引用和相对引用八、基础操作--横纵向双重绝对引用九、函数讲解--COUNTIF函数讲解十、组合应用--COUNTIF与数据验证综合案例十一、函数应用--COUNTIF函数的统计功能应用
郭辉、现任公司财务总监,会计师,24年财务工作经验,16年EXCEL学习经历,2003版、2007版、2010版、2016版《EXCEL高效办公-会计实务》、《EXCEL高效办公-财务管理》图书作者。对于EXCEL、ACCESS、金蝶BOS平台等数据管理软件都能熟练应用。善于数字处理和数据分析,从数据角度对财务管理和企业管理有独特的见解。
相关课程推荐
课程名称:观案.思行:单证流转的科学设置
主讲老师:陈美玲
课程介绍:单证作用很重要,设置原则理解好需借手段要知道,全面懂得麻烦少
课程名称:Excel 财务常用报表单元格格式小技巧
主讲老师:郭辉
课程介绍:单元格式小技巧,编报财报不可少数字日期均可调,美化保护工作表
课程名称:Excel IF函数让你制作工资表更简单
主讲老师:郭辉
课程介绍:Excel排序操作方法,IF函数--综合应用各表案例运用操作,利用排序解决难题
课程名称:出纳实务
主讲老师:
课程介绍:只用21天,打造出纳高手,100%实景模拟,专家手把手辅导!
&&官方微信
东奥会计在线
微信号:dongaocom
& Inc. All Rights Reserved使用Sqoop1.4.4将MySQL数据库表中数据导入到HDFS中 - MySQL - 次元立方网 - 电脑知识与技术互动交流平台
使用Sqoop1.4.4将MySQL数据库表中数据导入到HDFS中
问题导读:
1、--connect参数作用?
2、使用哪个参数从控制台读取数据库访问密码?
3、Sqoop将关系型数据库表中数据导入HDFS基本参数要求及命令?
4、数据默认导入HDFS文件系统中的路径?
5、--columns参数的作用?
6、--where参数的作用?
一、部分关键参数介绍
--connect &jdbc-uri&
指定关系型数据库JDBC连接字符串
--connection-manager &class-name&
指定数据库使用的管理类
--driver &class-name&
手动指定要使用JDBC驱动程序类
--hadoop-mapred-home &dir&
重写覆盖$HADOOP_MAPRED_HOME
使用提示帮助提示
--password-file
设置包含身份验证密码的路径文件
从控制台读取数据库访问密码
--password &password&
设置数据库身份验证密码
--username &username&
设置数据库访问用户
打印更多程序执行流程信息
--connection-param-file &filename&
用于提供连接参数的可选的属性文件
二、要导出的数据库
[hadoopUser@secondmgt ~]$ mysql -uhive -phive spice
Reading table information for completion of table and column names
You can turn off this feature to get a quicker startup with -A
Welcome to the
Your MySQL connection id is 419
Server version: 5.1.73 Source distribution
Copyright (c) , Oracle and/or its affiliates. All rights reserved.
Oracle is a registered trademark of Oracle Corporation and/or its
affiliates. Other names may be trademarks of their respective
Type '' or 'h' for help. Type 'c' to clear the current input statement.
mysql& select *
+----+----------+----------+-----+---------+------------+-------+------+
| id | username | pass | sex | content | datetime
| vm_id | isad |
+----+----------+----------+-----+---------+------------+-------+------+
| 56 | hua
| 58 | feng
| 59 | test
| 60 | user1
| 61 | user2
| 62 | user3
| 64 | kai.zhou | 123456
+----+----------+----------+-----+---------+------------+-------+------+
7 rows in set (0.00 sec)
三、将上面数据库users表中数据导入到HDFS中
执行导入命令,最少要指定数据库连接字符串、访问用户名、访问密码和要导入的表名,默认情况下会将数据导入到HDFS根目录下的/user/hadoopUser/&表名&/目录下,也可以使用--target-dir参数,指定导入目录。如下:
[hadoopUser@secondmgt ~]$ sqoop import --connect jdbc:mysql://secondmgt:3306/spice --username hive --pass hive --table users
--target-dir /output/sqoop/
Warning: /usr/lib/hcatalog does not exist! HCatalog jobs will fail.
Please set $HCAT_HOME to the root of your HCatalog installation.
15/01/17 20:28:16 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider using -P instead.
15/01/17 20:28:16 INFO manager.MySQLManager: Preparing to use a MySQL streaming resultset.
15/01/17 20:28:16 INFO tool.CodeGenTool: Beginning code generation
15/01/17 20:28:16 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM `users` AS t LIMIT 1
15/01/17 20:28:16 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM `users` AS t LIMIT 1
15/01/17 20:28:16 pilationManager: HADOOP_MAPRED_HOME is /home/hadoopUser/cloud/hadoop/programs/hadoop-2.2.0
Note: /tmp/sqoop-hadoopUser/compile/c010eef9b4d9dc2ddaac80/users.java uses or overrides a deprecated API.
Note: Recompile with -Xlint:deprecation for details.
15/01/17 20:28:18 pilationManager: Writing jar file: /tmp/sqoop-hadoopUser/compile/c010eef9b4d9dc2ddaac80/users.jar
15/01/17 20:28:18 WARN manager.MySQLManager: It looks like you are importing from mysql.
15/01/17 20:28:18 WARN manager.MySQLManager: This transfer can be faster! Use the --direct
15/01/17 20:28:18 WARN manager.MySQLManager: option to exercise a MySQL-specific fast path.
15/01/17 20:28:18 INFO manager.MySQLManager: Setting zero DATETIME behavior to convertToNull (mysql)
15/01/17 20:28:18 INFO mapreduce.ImportJobBase: Beginning import of users
15/01/17 20:28:18 INFO Configuration.deprecation: mapred.job.tracker is deprecated. Instead, use mapreduce.jobtracker.address
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/hadoopUser/cloud/hadoop/programs/hadoop-2.2.0/share/hadoop/common/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/hadoopUser/cloud/hbase/hbase-0.96.2-hadoop2/lib/slf4j-log4j12-1.6.4.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
15/01/17 20:28:18 INFO Configuration.deprecation: mapred.jar is deprecated. Instead, use mapreduce.job.jar
15/01/17 20:28:19 INFO Configuration.deprecation: mapred.map.tasks is deprecated. Instead, use mapreduce.job.maps
15/01/17 20:28:19 INFO client.RMProxy: Connecting to ResourceManager at secondmgt/192.168.2.133:8032
15/01/17 20:28:20 INFO db.DataDrivenDBInputFormat: BoundingValsQuery: SELECT MIN(`id`), MAX(`id`) FROM `users`
15/01/17 20:28:20 INFO mapreduce.JobSubmitter: number of splits:4
15/01/17 20:28:20 INFO Configuration.deprecation: mapred.job.classpath.files is deprecated. Instead, use mapreduce.job.classpath.files
15/01/17 20:28:20 INFO Configuration.deprecation: user.name is deprecated. Instead, use mapreduce.job.user.name
15/01/17 20:28:20 INFO Configuration.deprecation: mapred.cache.files.filesizes is deprecated. Instead, use mapreduce.job.cache.files.filesizes
15/01/17 20:28:20 INFO Configuration.deprecation: mapred.cache.files is deprecated. Instead, use mapreduce.job.cache.files
15/01/17 20:28:20 INFO Configuration.deprecation: mapred.reduce.tasks is deprecated. Instead, use mapreduce.job.reduces
15/01/17 20:28:20 INFO Configuration.deprecation: mapred.output.value.class is deprecated. Instead, use mapreduce.job.output.value.class
15/01/17 20:28:20 INFO Configuration.deprecation: mapreduce.map.class is deprecated. Instead, use mapreduce.job.map.class
15/01/17 20:28:20 INFO Configuration.deprecation: mapred.job.name is deprecated. Instead, use mapreduce.job.name
15/01/17 20:28:20 INFO Configuration.deprecation: mapreduce.inputformat.class is deprecated. Instead, use mapreduce.job.inputformat.class
15/01/17 20:28:20 INFO Configuration.deprecation: mapred.output.dir is deprecated. Instead, use mapreduce.output.fileoutputformat.outputdir
15/01/17 20:28:20 INFO Configuration.deprecation: mapreduce.outputformat.class is deprecated. Instead, use mapreduce.job.outputformat.class
15/01/17 20:28:20 INFO Configuration.deprecation: mapred.cache.files.timestamps is deprecated. Instead, use mapreduce.job.cache.files.timestamps
15/01/17 20:28:20 INFO Configuration.deprecation: mapred.output.key.class is deprecated. Instead, use mapreduce.job.output.key.class
15/01/17 20:28:20 INFO Configuration.deprecation: mapred.working.dir is deprecated. Instead, use mapreduce.job.working.dir
15/01/17 20:28:21 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_3_0002
15/01/17 20:28:21 INFO impl.YarnClientImpl: Submitted application application_3_0002 to ResourceManager at secondmgt/192.168.2.133:8032
15/01/17 20:28:21 INFO mapreduce.Job: The url to track the job: http://secondmgt:8088/proxy/application_3_0002/
15/01/17 20:28:21 INFO mapreduce.Job: Running job: job_3_0002
15/01/17 20:28:34 INFO mapreduce.Job: Job job_3_0002 running in uber mode : false
15/01/17 20:28:34 INFO mapreduce.Job:
map 0% reduce 0%
15/01/17 20:28:44 INFO mapreduce.Job:
map 25% reduce 0%
15/01/17 20:28:49 INFO mapreduce.Job:
map 75% reduce 0%
15/01/17 20:28:54 INFO mapreduce.Job:
map 100% reduce 0%
15/01/17 20:28:54 INFO mapreduce.Job: Job job_3_0002 completed successfully
15/01/17 20:28:54 INFO mapreduce.Job: Counters: 27
File System Counters
FILE: Number of bytes read=0
FILE: Number of bytes written=368040
FILE: Number of read operations=0
FILE: Number of large read operations=0
FILE: Number of write operations=0
HDFS: Number of bytes read=401
HDFS: Number of bytes written=288
HDFS: Number of read operations=16
HDFS: Number of large read operations=0
HDFS: Number of write operations=8
Job Counters
Launched map tasks=4
Other local map tasks=4
Total time spent by all maps in occupied slots (ms)=174096
Total time spent by all reduces in occupied slots (ms)=0
Map-Reduce Framework
Map input records=7
Map output records=7
Input split bytes=401
Spilled Records=0
Failed Shuffles=0
Merged Map outputs=0
GC time elapsed (ms)=205
CPU time spent (ms)=10510
Physical memory (bytes) snapshot=
Virtual memory (bytes) snapshot=
Total committed heap usage (bytes)=
File Input Format Counters
Bytes Read=0
File Output Format Counters
Bytes Written=288
15/01/17 20:28:54 INFO mapreduce.ImportJobBase: Transferred 288 bytes in 35.2792 seconds (8.1635 bytes/sec)
15/01/17 20:28:54 INFO mapreduce.ImportJobBase: Retrieved 7 records.
四、查看导入HDFS上的数据
[hadoopUser@secondmgt ~]$ hadoop fs -cat /output/sqoop/*
56,hua,hanyun,男,开通,,0,1
58,feng,123456,男,开通,,0,0
59,test,123456,男,开通,,58,0
60,user1,123456,男,开通,,66,0
61,user2,123,男,开通,,56,0
62,user3,123456,男,开通,,0,0
64,kai.zhou,123456,?,??,,65,0
与原数据库中记录一样,导入成功。
五、选择部分数据导入
1、--columns参数指定列
Sqoop默认是将表中每条记录的所有属性值导入,有的时候,我们只需要导入部分属性值,这时可以使用--columns参数,指定需要导入的列名,多个列之间用逗号隔开。如下将users表中的用户名、性别和时间导入到HDFS中:
[hadoopUser@secondmgt ~]$ sqoop import --connect jdbc:mysql://secondmgt:3306/spice --username hive --password hive
& --table users --columns &username,sex,datetime& --target-dir /output/sqoop/
查看结果:
[hadoopUser@secondmgt ~]$ hadoop fs -cat /output/sqoop/*
kai.zhou,?,
2、--where参数过滤行
另一个参数--where,可以对行做过滤,得到部分符合条件的记录,而不是表中全部记录。如下,将users表中id值大于60的数据导入到HDFS中:
[hadoopUser@secondmgt conf]$ sqoop import --connect jdbc:mysql://secondmgt:3306/spice --username hive --password hive
& --table users
--where & id & 60&
--target-dir /output/sqoop/
查看结果:
[hadoopUser@secondmgt conf]$ hadoop fs -cat /output/sqoop/*
61,user2,123,男,开通,,56,0
62,user3,123456,男,开通,,0,0
64,kai.zhou,123456,?,??,,65,0
延伸阅读:
统计访问页面数量,以分辨率进行排名SELECTCONCAT(`h...
本教程为 李华明 编著的iOS-Cocos2d游戏开发系列教程:教程涵盖关于i......
专题主要学习DirectX的初级编程入门学习,对Directx11的入门及初学者有......
&面向对象的JavaScript&这一说法多少有些冗余,因为JavaScript 语言本......
Windows7系统专题 无论是升级操作系统、资料备份、加强资料的安全及管......当前位置:>>>>>>
初级会计师《考试登记表》中专业资格取得时间如何填写?
初级会计师《考试登记表》中专业资格取得时间如何填写?证书领取材料有哪些?初级会计师证书管理制度是什么?初级会计师证书如何登记?以下是ppkao考试资料网小编为广大考生精心整理的有关初级会计师《考试登记表》中专业资格取得时间填写的相关信息。
  初级会计师《考试登记表》中专业资格取得时间如何填写?  答:根据可知,专业资格取得时间:即考生考取本资格(初级、中级)之前取得专业资格的时间,若考生刚取得初级资格,则本栏不用填写。  初级会计师证书领取材料  答:1、考试准考证。  2、填写完整并由单位加盖公章后的《专业资格考试登记表》(登记表在相关下载栏目中,必须用A4型纸张)  3、毕业证书原件(用于资格复审)  4、提供近期免冠彩色照片一寸、两寸各一张(一寸照片贴在登记表上,二寸照片贴在证书上)  各主管部门在办理资格证书时,要对合格人员进行资格复审,并将复审结果汇总至市人事考试中心。发现弄虚作假者,不得核发证书,按照《专业技术人员资格考试违规违纪行为处理规定》严肃处理。  初级会计师证书管理  根据《财政部人事部关于修订印发&会计专业技术资格考试暂行规定&及其实施办法的通知》(财会[2000]11号):  第十一条、会计专业技术初级资格考试合格者,即由各省、自治区、直辖市、新疆生产建设兵团人事(职改)部门颁发人事部统一印制,人事部、财政部印的会计专业技术资格证书。该证书全国范围有效。各地在颁发证书时,不得附加任何条件。  初级会计师证书登记  根据《财政部人事部关于修订印发&会计专业技术资格考试暂行规定&及其实施办法的通知》(财会[2000]11号):  第十二条、会计专业技术资格实行定期登记制度。资格证书每三年登记一次。持证者应按规定到当地人事、财政部门指定的办事机构办理登记手续。    小编推荐&& |
| | 历年考试真实试卷真实检测海量考试试卷及答案分数评估按章节做题系统练习不遗漏坚持每日练习提高分数
免责声明:因考试政策、内容不断变化与调整,本站提供的以上信息仅供参考,如有异议,请考生以权威部门公布的内容为准!本站对如上内容的真实性、完整性不作任何保证或承诺!转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。同时,本站无意侵犯他人权利,如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!邮箱:
相关文章&&&
初级会计师考试指南了解考试考试报名准备考试准考证打印成绩查询考试证书君,已阅读到文档的结尾了呢~~
excel表中判断几个表格填写内容后自动在另一个表格添加上当前时间
扫扫二维码,随身浏览文档
手机或平板扫扫即可继续访问
excel表中判断几个表格填写内容后自动在另一个表格添加上当前时间
举报该文档为侵权文档。
举报该文档含有违规或不良信息。
反馈该文档无法正常浏览。
举报该文档为重复文档。
推荐理由:
将文档分享至:
分享完整地址
文档地址:
粘贴到BBS或博客
flash地址:
支持嵌入FLASH地址的网站使用
html代码:
&embed src='/DocinViewer--144.swf' width='100%' height='600' type=application/x-shockwave-flash ALLOWFULLSCREEN='true' ALLOWSCRIPTACCESS='always'&&/embed&
450px*300px480px*400px650px*490px
支持嵌入HTML代码的网站使用
您的内容已经提交成功
您所提交的内容需要审核后才能发布,请您等待!
3秒自动关闭窗口

我要回帖

更多关于 今天终于知道错 粤语 的文章

 

随机推荐