2019年10月
有些人以为注释写的多就可以让代码更加可读,然而通过大量的实践证明,事实并非如此。有些时候注释不但没能让代码变得可读,反而由于大量的注释充斥在代码中间,让程序变得障眼难读,而且代码的逻辑一旦修改,...
来吧,接着上篇(写模块化的代码)继续写,今天讲讲如何写优雅的代码。spaghetti code用来形容那些非结构化和难以维护的代码,这种代码绕来绕去,很难理清其中的逻辑关系。那么,什么是优雅的代...
在工作中,发现有太多的程序员压根没搞懂什么是模块化,天天叫喊着要让代码模块化,真正做的时候只是把代码放在不同的目录和文件里。真正的模块化,是逻辑上的概念,而非文本意义上的。一个模块就像一个电路芯...
最近工作中,发现N多同事在对流程图的问题上有着两类明显的错误认识:一类是,觉着流程图没用。一类是,知道流程图有用,但是画不对,画不好。在这里,苦李结合几年的工作经验,浅谈一下自己对流程图的认识。...
本文首发于知乎:作为程序员,是什么让你坚持不懈的学习?难道不累吗?戴着耳机,听着喜欢的音乐,不用风吹日晒,不用看别人脸色低三下四,享受如此,舔着脸说累?说程序员累的,你是没体会过用一门新的语言打...
通常在向Spark传递函数时,比如使用map()函数或者用filter()传条件时,可以使用驱动器程序中定义的变量,但是集群中运行的每个任务都会得到这些变量的一份新的副本,更新这些副本的值也不会...
Spark支持多种文件的读写操作,例如普通文本文件、JSON、CSV、SequenceFile等,而且Spark会根据文件后缀自动选择对应的处理方式。下面是Spark支持的常见的文本格式:格式名...
Spark大部分转化操作和一部分行动操作,都需要依赖开发人员传递的函数进行计算。在Spark支持的3种开发语言(Java、Python、Scala)里,传递的方式略有不同。下面苦李介绍Java如...
1、RDD概念RDD的全称是弹性分布式数据集(Resilient Distributed Dataset),它是Spark对数据的核心抽象。在Spark中,对数据的操作可简单概括为创建RDD、转...