1.word count是什么意思
word count 英[w?:d kaunt] 美[w?d ka?nt]
n. 字数; 字计数;
[例句]Wc is an acronym for word count; wc can count characters, words, and lines.
wc为word count的首字母缩写,wc可统计字符、单词和行数。
根据你的描述,这是文字计数的意思,表面你这篇文字共打了多少个字。
2.如何运行自带wordcount
1、在linux系统中,所在目录“/home/kcm”下创建一个文件input
[ubuntu@701~]$ mkdir input
2.在文件夹input中创建两个文本文件file1.txt和file2.txt,file1.txt中内容是“hello word”,file2.txt中内容是“hello hadoop”、“hello mapreduce”(分两行)。
[ubuntu@701~]$ cd input
[ubuntu@701~]$ vi file1.txt(编辑文件并保存)
[ubuntu@701~]$ vi file2.txt(编辑文件并保存)
[ubuntu@701~]$ ls -l /home/kcm/input
file1.txt file2.txt
显示文件内容可用:
[ubuntu@701~]$ cat/home/kcm/input/file1.txt
hello word
[ubuntu@701~]$ cat /home/kcm/input/file2.txt
hello mapreduce
hello hadoop
3.在HDFS上创建输入文件夹wc_input,并将本地文件夹input中的两个文本文件上传到集群的wc_input下
[ubuntu@701~]$ hadoop fs -mkdir wc_input
[ubuntu@701~]$ hadoop fs -put/home/kcm/input/file* wc_input
查看wc_input中的文件:
[ubuntu@701~]$ /hadoop fs -ls wc_input
Found 2 items
-rw-r--r-- 1 root supergroup 11 2014-03-13 01:19 /user/hadoop/wc_input/file1.txt
-rw-r--r-- 1 root supergroup 29 2014-03-13 01:19 /user/hadoop/wc_input/file2.txt
4.首先,在window下将wordcount进行打包,我们这里把它打包成wordcount.jar;然后,将wordcount.jar拷贝到linux系统中,存放的目录自己决定即可。我们这里存放到/home/kcm目录下面。
5.运行wordcount.jar包(转到该jar包存放的目录下):
[ubuntu@701~]$ hadoop jar wordcount.jar /user/hadoop/wc_input /user/hadoop/output
3.如何运行自带wordcount
1.找到examples例子 我们需要找打这个例子的位置:首先需要找到你的hadoop文件夹,然后依照下面路径: /hadoop/share/hadoop/mapreduce会看到如下图: hadoop-mapreduce-examples-2.2.0.jar 第二步: 我们需要需要做一下运行需要的工作,比如输入输出路径,上传什么文件等。
1.先在HDFS创建几个数据目录: hadoop fs -mkdir -p /data/wordcount hadoop fs -mkdir -p /output/ 2.目录/data/wordcount用来存放Hadoop自带的WordCount例子的数据文件,运行这个MapReduce任务的结果输出到/output/wordcount目录中。 首先新建文件inputWord: vi /usr/inputWord 新建完毕,查看内容: cat /usr/inputWord 将本地文件上传到HDFS中: hadoop fs -put /usr/inputWord /data/wordcount/ 可以查看上传后的文件情况,执行如下命令: hadoop fs -ls /data/wordcount 可以看到上传到HDFS中的文件。
通过命令 hadoop fs -text /data/wordcount/inputWord 看到如下内容: 下面,运行WordCount例子,执行如下命令: hadoop jar /usr/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar wordcount /data/wordcount /output/wordcount 可以看到控制台输出程序运行的信息 查看结果,执行如下命令: hadoop fs -text /output/wordcount/part-r-00000 结果数据示例如下: 登录到Web控制台,访问链接http.//master:8088/可以看到任务记录情况。
4.如何运行自带wordcount
1.找到examples例子
我们需要找打这个例子的位置:首先需要找到你的hadoop文件夹,然后依照下面路径:
/hadoop/share/hadoop/mapreduce会看到如下图:
hadoop-mapreduce-examples-2.2.0.jar
第二步:
我们需要需要做一下运行需要的工作,比如输入输出路径,上传什么文件等。
1.先在HDFS创建几个数据目录:
hadoop fs -mkdir -p /data/wordcount
hadoop fs -mkdir -p /output/
2.目录/data/wordcount用来存放Hadoop自带的WordCount例子的数据文件,运行这个MapReduce任务的结果输出到/output/wordcount目录中。
首先新建文件inputWord:
vi /usr/inputWord
新建完毕,查看内容:
cat /usr/inputWord
将本地文件上传到HDFS中:
hadoop fs -put /usr/inputWord /data/wordcount/
可以查看上传后的文件情况,执行如下命令:
hadoop fs -ls /data/wordcount
可以看到上传到HDFS中的文件。
通过命令
hadoop fs -text /data/wordcount/inputWord
看到如下内容:
下面,运行WordCount例子,执行如下命令:
hadoop jar /usr/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar wordcount /data/wordcount /output/wordcount
可以看到控制台输出程序运行的信息
查看结果,执行如下命令:
hadoop fs -text /output/wordcount/part-r-00000
结果数据示例如下:
登录到Web控制台,访问链接http.//master:8088/可以看到任务记录情况。
5.sci投稿word count怎么写
朋友你好,根据我多年从事文字工作的经验,我认为:如果投稿更有针对性,命中率会更高一些。
这就关系到,你是哪里的?干什么的?写的稿件是什么体裁?什么内容?如果说投稿的话,最好投当地的报刊、网络或者是你从事的职业报刊发表,要投哪个媒体首先要研究哪个媒体,看它需要什么内容、什么体裁、什么格式的稿件,“对症下药”,这样会更轻松一些、方便一些,命中率会更高一些。如果你能够告诉我你的具体情况(干什么工作,哪里的,写的小说的大致内容等),我可以给你一些建议。
我1993年开始在部队时开始发表各类文章,包括:报告文学、新闻、诗歌、散文、小说、评论等体裁的,到目前,先后在《人民日报》《法制日报》《农民日报》《中国文化报》《法制文萃》《半月谈》《解放军报》《中国国防报》《中国绿色时报》《中国日报》《中国教育报》《人民公安报》《中国交通报》《中国安全生产报》《中国转业军官》《中国人事》《道路交通管理》等报刊发表的大约5000篇左右吧,有40多篇获奖。另外:投稿时,第一要有信心,第二要投对报刊媒体,这两点非常重要。
祝你成功。
6.请教wordcount问题
我在别的论坛也看到您的问题,遇到和楼主一样的问题,看到楼主最终没有把解决方案贴出来,我就分享一下。
这个问题其实很简单,关键还是/usr/hadoop/tmp目录的权限问题。虽然表面上这个目录是存在的,也有读写权限,但是你要注意这个目录的用户是root,而不是hadoop。从另一个方面也能印证,那就是打开hadoop提供的网页,里面显示有3个nohealthy的节点,他的提示信息大概是/usr/hadoop/tmp目录下没有nmlocal-。(记不得了)。
所以我很干脆的删除了这个tmp目录,并且用hadoop用户重建了这个目录,然后重新format,貌似问题就解决了。
由于目前手头没有环境,没办法截图,只好大概回答一下,如果有需要,可以跟我讨论。
7.请教wordcount问题
我在别的论坛也看到您的问题,遇到和楼主一样的问题,看到楼主最终没有把解决方案贴出来,我就分享一下。
这个问题其实很简单,关键还是/usr/hadoop/tmp目录的权限问题。虽然表面上这个目录是存在的,也有读写权限,但是你要注意这个目录的用户是root,而不是hadoop。
从另一个方面也能印证,那就是打开hadoop提供的网页,里面显示有3个nohealthy的节点,他的提示信息大概是/usr/hadoop/tmp目录下没有nmlocal-。(记不得了)。
所以我很干脆的删除了这个tmp目录,并且用hadoop用户重建了这个目录,然后重新format,貌似问题就解决了。 由于目前手头没有环境,没办法截图,只好大概回答一下,如果有需要,可以跟我讨论。
转载请注明出处51数据库 » wordcount是什么