pyspark中文文档 pyspark运行py文件

游戏攻略 2024-12-28 11:05:52

小华给大家谈谈pyspark中文文档,以及pyspark运行py文件应用的知识点,希望对你所遇到的问题有所帮助。

pyspark中文文档 pyspark运行py文件pyspark中文文档 pyspark运行py文件


pyspark中文文档 pyspark运行py文件


1、导读:章:初识Hadoop第二章:更高效的WordCount第三章:把别处的数据搞到Hadoop上第四章:把Hadoop上的数据搞到别处去第五章:快一点吧,我的SQL第六章:一夫多妻制第七章:越来越多的分析任务第八章:我的数据要实时第九章:我的数据要对外第十章:高大上的机器学习经常有初学者会问,自己想往大数据方向发展,该学哪些技术,学习路线是什么样的,觉得大数据很火,就业很好,薪资很高……首先,如果你确定了想往这个方面发展,先考虑自己的过去从业经历、专业、兴趣是什么。

2、计算机专业——作系统、硬件、网络、?软件专业——软件开发、编程、写代码?还是数学、统计学专业——对数据和数字特别感兴趣?其实这就是想告诉你大数据的三个发展方向,平台搭建/优化/运维/、大数据开发/设计/架构、数据分析/挖掘。

3、先扯一下大数据的4V特征:数据量大,TB->PB数据类型繁多,结构化、非结构化文本、日志、视频、、地理位置等;商业价值高,但是这种价值需要在海量数据之上,通过数据分析与机器学习更快速的挖掘出来;处理时效性高,海量数据的处理需求不再局限在离线计算当中。

4、现如今,正式为了应对大数据的这几个特点,开源的大数据框架越来越多,越来越强,先列举一些常见的:文件存储:Hadoop HDFS、Tachyon、KFS离线计算:Hadoop MapReduce、Spark流式、实时计算:Storm、Spark Streaming、S4、HeronK-V、NOSQL数据库:HBase、Redis、MongoDB资源管理:YARN、Mesos日志收集:Flume、Scribe、Logstash、Kibana消息系统:Kafka、StormMQ、ZeroMQ、RabbitMQ查询分析:Hive、Impala、Pig、Presto、Phoenix、SparkSQL、Drill、Flink、Kylin、Druid分布式协调服务:Zookeeper集群管理与:Ambari、Ganglia、Nagios、Cloudera Mar数据挖掘、机器学习:Mahout、Spark MLLib数据同步:Sqoop任务调度:Oozie······章:初识Hadoop1.1 学会百度与Google不论遇到什么问题,先试试搜索并自己解决。

5、Google,翻不过去的,就用百度吧。

6、1.2 参考资料文档特别是对于入门来说,文档永远是文档。

7、相信搞这块的大多是文化人,英文凑合就行,实在看不下去的,请参考步。

8、1.3 先让Hadoop跑起来Hadoop可以算是大数据存储和计算的开山鼻祖,现在大多开源的大数据框架都依赖Hadoop或者与它能很好的兼容。

9、关于Hadoop,你至少需要搞清楚以下是什么:Hadoop 1.0、Hadoop 2.0MapReduce、HDFSNameNode、DataNodeJobTracker、TaskTrackerYarn、ResourceMar、NodeMar自己搭建Hadoop,请使用步和第二步,能让它跑起来就行。

10、建议先使用安装包命令行安装,不要使用管理工具安装。

11、另外:Hadoop1.0知道它就行了,现在都用Hadoop 2.0.1.4 尝试使用HadoopHDFS目录作命令;上传、下载文件命令;提交运行MapReduce示例程序;打开Hadoop WEB界面,查看Job运行状态,查看Job运行日志。

12、知道Hadoop的系统日志在哪里。

13、1.5了解它们的原理MapReduce:如何分而治之;HDFS:数据到底在哪里,什么是副本;Yarn到底是什么,它能干什么;NameNode到底在干些什么;ResourceMar到底在干些什么;1.6 自己写一个MapReduce程序仿照WordCount例子,自己写一个(照抄也行)WordCount程序,打包并提交到Hadoop运行。

14、不会Ja的话,Shell、Python都可以,有个东西叫Hadoop Streaming。

15、如果能认真完成了以上几步,恭喜你,你的一只脚已经进来了。

本文到这结束,希望上面文章对大家有所帮助。

版权声明:本文内容由互联。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发 836084111@qq.com 邮箱删除。