曾道人说:“为什么职业规划浪费时间呢”?

Python015

曾道人说:“为什么职业规划浪费时间呢”?,第1张

近期和朋友聊天时听到了这样一个观点:在今天这个多变的社会里,做职业规划,根本就是一件浪费时间的事情。

因为各行业的变化实在是太快了,今天你规划在这个行业里好好大干一番,可能明天整个行业就突然完蛋了。

你根本没法预料10年甚至两年以后你所处的行业会发生什么,在这种情况下进行个人的职业规划,没有任何意义。

我相信有很多人,跟前面这位朋友所持的观点是一致的,那么我们今天就来聊一聊,在这个瞬息万变的时代,对于年轻人来说,是否有必要进行职业规划?

诚然,这个社会确实是多变的,每时每刻都有新鲜的东西从不知道什么地方冒出来,每分每秒,也有太多曾经辉煌过的东西慢慢消失。

也许你前两年一脚踏进了共享经济的风口当中,本打算用5~10年的时间干出一番事业来,谁曾想一夜之间风没了,猪掉下来了,你的一番事业还见不到影子,拿到手的却是一封裁员通知。

行业是如此,而技能甚至也会过时,前两年大火的Go语言,现如今在招聘需求里面已经难以见到,今天所有的招聘都在抢AI,抢神经网络方面的人才,但再过几年会怎样谁都不知道。

大时代的变化如浪潮一般风起云涌,而个人在其中难免会觉得变化来得太快,自己跟不上节奏。

从这一点看来,似乎我们的确难以把控、预测行业的变化。而这个时候去制定什么5年10年的职业规划,看起来似乎真的没有了太大意义。

然而,如果你真的这样想,那恐怕你在思维上已经陷入了一种误区。

无论行业和社会上发生多大的变化与倾覆,个人的成长轨迹始终是连贯且统一的。

职业规划,不是让我们对行业的发展,甚至未来有可能出现的行业进行未卜先知式的预测,而是回归于个人成长的本身,让我们能够时刻提醒自己在人生的某个阶段应该做什么,以及应该做到什么。

很多人把职业生涯规划想的太过复杂,其实这种规划没有那么神奇,你甚至可以简单理解成一个人给自己在不同阶段制定的不同目标,然后再规划一个合理的达成路径罢了。

哪怕是一个没学历、没背景、没技能的年轻人,在当今社会他也能找到一份自己可以从事的工作,比如去送外卖。

送外卖虽然辛苦,但收入也并不算太低。

当然,送外卖不管怎么说,也不是一个可以一直做下去的工作。但是只要他有心,勤奋一些,节俭一些,做几年就能凑出一辆车的首付。

这时候,不用送外卖了,去开网约车吧!虽然依旧辛苦,可也不同风吹日晒,风里来雨里去了不是吗?

再往后,有了更多的钱,还可以换辆商务车跑专车,或者换辆SUV跑旅游专车,收入将会有明显的提升,工作强度也能适应年龄的增长。

事实上,就连《骆驼祥子》中的祥子虽然不懂“职业生涯规划”是什么意思,但他也有自己对人生未来发展的思虑与考量:租几年车,买辆自己的车,成家立业,多买几辆车,开个车行。

只可惜,祥子遭遇的是整个大时代的悲哀,而我们面临的,其实是蓬勃向上的社会机遇。

我们在这里思考一下,一个人,如果对自己的职业生涯缺乏规划会怎样?

对于绝大多数人来说,缺乏对职业生涯的规划,会使其迷失在行业变化的颠簸,与日复一日的简单劳作中。

现在在很多行业里都有一种现象叫做“35岁焦虑”。

所谓的35岁焦虑就是指疼一个人35岁时,他会渐渐变得患得患失,焦躁不安,感觉自己的人生压力倍增。

原因很简单,一方面年龄的增长,精力的衰退,让人感觉自己的竞争力越来越弱,而身后跟着一群群虎视眈眈的“后浪”们,随时准备把自己拍在沙滩上。

另一方面,上有父母,下有子女,手头没有存款,只有尚余20来年的房贷车贷。

今天早上听说公司高层又在讲“狼性”,讲“996”,看看自己三高的体检单,想要换份工作,却发现招聘网站上纷纷写着“年龄35岁以下”。

在这种情况下, 又怎么可能不焦虑呢?

可是换个角度再来想一想,35 40来岁,其实正是一个人事业的黄金时期,如果一个人在行业中有所建树,拥有一定的资源与能力,40岁对于多数的管理岗来说,刚刚是他实现个人价值的开始。

那为什么却有这么多人在面临着35岁焦虑呢?其本质就在于对于很多人来说,职业生涯缺少规划,导致他错过了应该积累的时期。

对于一个对自己的职业有明确规划的人来说,跟别人最大的不同就是,他会非常关注自己目前的职业状态是否“可持续”。

而对于缺乏职业规划的人来说,他们的职场生涯往往是“得过一天是一天。”

当一个人对自己的职业生涯缺乏规划的时候,他所能考虑到的往往只有眼前。

而要命的是,如果一个人越是只能看到眼前,那么他越难以获得持续的精进,生活就会变得越不稳定,就越需要疲于奔命,就越是只能先顾眼前。毫无疑问,这是个可悲的恶性循环。

看看我们身边有多少人正处于现在这样的状态呢,明明知道自己目前的工作没有前途,明明知道这个行业已经是日薄西山,却受困于当下的条件,难以做出足够的决心,只能先这么耗下去。

可耗下去的结果会是什么你我他都心知肚明,而在这一次又一次的拖延之中,他最大的损失,就是自己的光阴。

因此职业生涯其实非常重要,对于年轻人来说更是如此。

我们需要做的不是去预测自己在未来多少年实现财富自由,在什么时候做成公司的老总,而是明确的搞清楚,如何在正确的阶段做正确的事情。

通常来说,我们会把职业生涯分为四个部分:技能学习期、职业尝试期、职业稳定期、职业成熟期。

而每个时期,都有各自的重点与目标。

比如正处在学习期刚刚踏入职场的年轻人,最不应该追求的就是所谓的稳定,因为在这个事情,你需要做的是试错找到自己最适合的道路。

很多人批评现在年轻人不够稳重,一言不合就辞职,然而说实话,在我看来很多情况下“不喜欢,所以要换工作”其实是年轻人的正当诉求。

对于年轻人来说资历是最大的资本,这个时候负担小,精力旺盛,学习能力强,拿出几年的时间去试错,这点代价放到他整个职业生涯的旅程上来看根本就是微乎其微。

我曾经招聘过一个应届生,以美工的身份入职,一个月的试用期里,小伙子的工作可以说是可圈可点。

眼看就要转正了,他就突然跑来辞职,给出的理由是他觉得这份工作并不是他想做的,他不喜欢这个职业,他真正想做的是去做影视后期,尽管他没有相关的经验。

小伙子辞职了之后,我关注了一段时间他的动态,很快他找了一家做后期的工作室去实习。

学习了半年之后,又离开了那家工作,重新找了一份正式的后期工作。

到了现在他已经开了一家小工作室,专门从事高端婚礼年会的创意视频制作工作。

从很多角度来说,像他这种毫无经验就裸辞,然后又跑去贸然进入一个完全陌生的行业,很明显是一个不合理也不理智的选择。

但是,如果他是一个本身对自身看的很轻,又对自己的职业生涯有着明确规划的人,那么这一步的果断,其实正是他对未来奠定良好发展的基础。

学习期之后,当一个人的职业生涯进入了稳定期,这个时候他最重要的就是开始积累自己的能力与经验。

谨慎选择一份在未来几年相对稳定,且能够让自己获得持续成长的行业,在行业中不断的深耕下去,稳定期的积累多寡,往往也就决定了他成熟期的收获。

到了职业生涯的成熟期,前面所做的一切努力都开始得到回报,或许前面几年你的收入并没有很高,但到了此时你会发现,自己的收入增长开始变得后劲十足。

在自身的发展之下,好一些会成为行业当中的优秀之人,差一点也是经验丰富可以倚靠的老成持重之人。

人工智能技术是当前炙手可热的话题,而基于神经网络的深度学习技术更是热点中的热点。去年谷歌的Alpha Go 以4:1大比分的优势战胜韩国的李世石九段,展现了深度学习的强大威力,后续强化版的Alpha Master和无师自通的Alpha Zero更是在表现上完全碾压前者。不论你怎么看,以深度学习为代表的人工智能技术正在塑造未来。

下图为英伟达(NVIDIA)公司近年来的股价情况, 该公司的主要产品是“图形处理器”(GPU),而GPU被证明能大大加快神经网络的训练速度,是深度学习必不可少的计算组件。英伟达公司近年来股价的飞涨足以证明当前深度学习的井喷之势。

好,话不多说,下面简要介绍神经网络的基本原理、发展脉络和优势。

神经网络是一种人类由于受到生物神经细胞结构启发而研究出的一种算法体系,是机器学习算法大类中的一种。首先让我们来看人脑神经元细胞:

一个神经元通常具有多个树突 ,主要用来接受传入信息,而轴突只有一条,轴突尾端有许多轴突末梢,可以给其他多个神经元传递信息。轴突末梢跟其他神经元的树突产生连接,从而传递信号。

下图是一个经典的神经网络(Artificial Neural Network,ANN):

乍一看跟传统互联网的拓扑图有点类似,这也是称其为网络的原因,不同的是节点之间通过有向线段连接,并且节点被分成三层。我们称图中的圆圈为神经元,左边三个神经元组成的一列为输入层,中间神经元列为隐藏层,右边神经元列为输出层,神经元之间的箭头为权重。

神经元是计算单元,相当于神经元细胞的细胞核,利用输入的数据进行计算,然后输出,一般由一个线性计算部分和一个非线性计算部分组成;输入层和输出层实现数据的输入输出,相当于细胞的树突和轴突末梢;隐藏层指既不是输入也不是输出的神经元层,一个神经网络可以有很多个隐藏层。

神经网络的关键不是圆圈代表的神经元,而是每条连接线对应的权重。每条连接线对应一个权重,也就是一个参数。权重具体的值需要通过神经网络的训练才能获得。我们实际生活中的学习体现在大脑中就是一系列神经网络回路的建立与强化,多次重复的学习能让回路变得更加粗壮,使得信号的传递速度加快,最后对外表现为“深刻”的记忆。人工神经网络的训练也借鉴于此,如果某种映射关系出现很多次,那么在训练过程中就相应调高其权重。

1943年,心理学家McCulloch和数学家Pitts参考了生物神经元的结构,发表了抽象的神经元模型MP:

符号化后的模型如下:

Sum函数计算各权重与输入乘积的线性组合,是神经元中的线性计算部分,而sgn是取符号函数,当输入大于0时,输出1,反之输出0,是神经元中的非线性部分。向量化后的公式为z=sgn(w^T a)(w^T=(w_1,w_2,w_3),a=〖(a_1,a_2,a_3)〗^T)。

但是,MP模型中,权重的值都是预先设置的,因此不能学习。该模型虽然简单,并且作用有限,但已经建立了神经网络大厦的地基

1958年,计算科学家Rosenblatt提出了由两层神经元组成(一个输入层,一个输出层)的神经网络。他给它起了一个名字–“感知器”(Perceptron)

感知器是当时首个可以学习的人工神经网络。Rosenblatt现场演示了其学习识别简单图像的过程,在当时引起了轰动,掀起了第一波神经网络的研究热潮。

但感知器只能做简单的线性分类任务。1969年,人工智能领域的巨擘Minsky指出这点,并同时指出感知器对XOR(异或,即两个输入相同时输出0,不同时输出1)这样的简单逻辑都无法解决。所以,明斯基认为神经网络是没有价值的。

随后,神经网络的研究进入低谷,又称 AI Winter 。

Minsky说过单层神经网络无法解决异或问题,但是当增加一个计算层以后,两层神经网络不仅可以解决异或问题,而且具有非常好的非线性分类效果。

下图为两层神经网络(输入层一般不算在内):

上图中,输出层的输入是上一层的输出。

向量化后的公式为:

注意:

每个神经元节点默认都有偏置变量b,加上偏置变量后的计算公式为:

同时,两层神经网络不再使用sgn函数作为激励函数,而采用平滑的sigmoid函数:

σ(z)=1/(1+e^(-z) )

其图像如下:

理论证明: 两层及以上的神经网络可以无限逼近真实的对应函数,从而模拟数据之间的真实关系 ,这是神经网络强大预测能力的根本。但两层神经网络的计算量太大,当时的计算机的计算能力完全跟不上,直到1986年,Rumelhar和Hinton等人提出了反向传播(Backpropagation,BP)算法,解决了两层神经网络所需要的复杂计算量问题,带动了业界使用两层神经网络研究的热潮。

但好景不长,算法的改进仅使得神经网络风光了几年,然而计算能力不够,局部最优解,调参等一系列问题一直困扰研究人员。90年代中期,由Vapnik等人发明的SVM(Support Vector Machines,支持向量机)算法诞生,很快就在若干个方面体现出了对比神经网络的优势:无需调参;高效;全局最优解。

由于以上原因,SVM迅速打败了神经网络算法成为主流。神经网络的研究再一次进入低谷, AI Winter again 。

多层神经网络一般指两层或两层以上的神经网络(不包括输入层),更多情况下指两层以上的神经网络。

2006年,Hinton提出使用 预训练 ”(pre-training)和“微调”(fine-tuning)技术能优化神经网络训练,大幅度减少训练多层神经网络的时间

并且,他给多层神经网络相关的学习方法赋予了一个新名词–“ 深度学习 ”,以此为起点,“深度学习”纪元开始了:)

“深度学习”一方面指神经网络的比较“深”,也就是层数较多;另一方面也可以指神经网络能学到很多深层次的东西。研究发现,在权重参数不变的情况下,增加神经网络的层数,能增强神经网络的表达能力。

但深度学习究竟有多强大呢?没人知道。2012年,Hinton与他的学生在ImageNet竞赛中,用多层的卷积神经网络成功地对包含一千类别的一百万张图片进行了训练,取得了分类错误率15%的好成绩,这个成绩比第二名高了近11个百分点,充分证明了多层神经网络识别效果的优越性。

同时,科研人员发现GPU的大规模并行矩阵运算模式完美地契合神经网络训练的需要,在同等情况下,GPU的速度要比CPU快50-200倍,这使得神经网络的训练时间大大减少,最终再一次掀起了神经网络研究的热潮,并且一直持续到现在。

2016年基于深度学习的Alpha Go在围棋比赛中以4:1的大比分优势战胜了李世石,深度学习的威力再一次震惊了世界。

神经网络的发展历史曲折荡漾,既有被捧上神坛的高潮,也有无人问津的低谷,中间经历了数次大起大落,我们姑且称之为“三起三落”吧,其背后则是算法的改进和计算能力的持续发展。

下图展示了神经网络自发明以来的发展情况及一些重大时间节点。

当然,对于神经网络我们也要保持清醒的头脑。由上图,每次神经网络研究的兴盛期持续10年左右,从最近2012年算起,或许10年后的2022年,神经网络的发展将再次遇到瓶颈。

神经网络作为机器学习的一种,其模型训练的目的,就是使得参数尽可能的与真实的模型逼近。理论证明,两层及以上的神经网络可以无限逼近真实的映射函数。因此,给定足够的训练数据和训练时间,总能通过神经网络找到无限逼近真实关系的模型。

具体做法:首先给所有权重参数赋上随机值,然后使用这些随机生成的参数值,来预测训练数据中的样本。假设样本的预测目标为yp ,真实目标为y,定义值loss,计算公式如下:

loss = (yp -y) ^2

这个值称之为 损失 (loss),我们的目标就是使对所有训练数据的损失和尽可能的小,这就转化为求loss函数极值的问题。

一个常用方法是高等数学中的求导,但由于参数不止一个,求导后计算导数等于0的运算量很大,所以常用梯度下降算法来解决这样的优化问题。梯度是一个向量,由函数的各自变量的偏导数组成。

比如对二元函数 f =(x,y),则梯度∇f=(∂f/∂x,∂f/∂y)。梯度的方向是函数值上升最快的方向。梯度下降算法每次计算参数在当前的梯度,然后让参数向着梯度的反方向前进一段距离,不断重复,直到梯度接近零时截止。一般这个时候,所有的参数恰好达到使损失函数达到一个最低值的状态。下图为梯度下降的大致运行过程:

在神经网络模型中,由于结构复杂,每次计算梯度的代价很大。因此还需要使用 反向传播 (Back Propagation)算法。反向传播算法利用了神经网络的结构进行计算,不一次计算所有参数的梯度,而是从后往前。首先计算输出层的梯度,然后是第二个参数矩阵的梯度,接着是中间层的梯度,再然后是第一个参数矩阵的梯度,最后是输入层的梯度。计算结束以后,所要的两个参数矩阵的梯度就都有了。当然,梯度下降只是其中一个优化算法,其他的还有牛顿法、RMSprop等。

确定loss函数的最小值后,我们就确定了整个神经网络的权重,完成神经网络的训练。

在神经网络中一样的参数数量,可以用更深的层次去表达。

由上图,不算上偏置参数的话,共有三层神经元,33个权重参数。

由下图,保持权重参数不变,但增加了两层神经元。

在多层神经网络中,每一层的输入是前一层的输出,相当于在前一层的基础上学习,更深层次的神经网络意味着更深入的表示特征,以及更强的函数模拟能力。更深入的表示特征可以这样理解,随着网络的层数增加,每一层对于前一层次的抽象表示更深入。

如上图,第一个隐藏层学习到“边缘”的特征,第二个隐藏层学习到“边缘”组成的“形状”的特征,第三个隐藏层学习到由“形状”组成的“图案”的特征,最后的隐藏层学习到由“图案”组成的“目标”的特征。通过抽取更抽象的特征来对事物进行区分,从而获得更好的区分与分类能力。

前面提到, 明斯基认为Rosenblatt提出的感知器模型不能处理最简单的“异或”(XOR)非线性问题,所以神经网络的研究没有前途,但当增加一层神经元后,异或问题得到了很好地解决,原因何在?原来从输入层到隐藏层,数据发生了空间变换,坐标系发生了改变,因为矩阵运算本质上就是一种空间变换。

如下图,红色和蓝色的分界线是最终的分类结果,可以看到,该分界线是一条非常平滑的曲线。

但是,改变坐标系后,分界线却表现为直线,如下图:

同时,非线性激励函数的引入使得神经网络对非线性问题的表达能力大大加强。

对于传统的朴素贝叶斯、决策树、支持向量机SVM等分类器,提取特征是一个非常重要的前置工作。在正式训练之前,需要花费大量的时间在数据的清洗上,这样分类器才能清楚地知道数据的维度,要不然基于概率和空间距离的线性分类器是没办法进行工作的。然而在神经网络中,由于巨量的线性分类器的堆叠(并行和串行)以及卷积神经网络的使用,它对噪声的忍耐能力、对多通道数据上投射出来的不同特征偏向的敏感程度会自动重视或忽略,这样我们在处理的时候,就不需要使用太多的技巧用于数据的清洗了。有趣的是,业内大佬常感叹,“你可能知道SVM等机器学习的所有细节,但是效果并不好,而神经网络更像是一个黑盒,很难知道它究竟在做什么,但工作效果却很好”。

人类对机器学习的环节干预越少,就意味着距离人工智能的方向越近。神经网络的这个特性非常有吸引力。

1) 谷歌的TensorFlow开发了一个非常有意思的神经网络 入门教程 ,用户可以非常方便地在网页上更改神经网络的参数,并且能看到实时的学习效率和结果,非常适合初学者掌握神经网络的基本概念及神经网络的原理。网页截图如下:

2) 深度学习领域大佬吴恩达不久前发布的《 神经网络和深度学习 》MOOC,现在可以在网易云课堂上免费观看了,并且还有中文字幕。

3) 《神经网络于深度学习》(Michael Nielsen著)、《白话深度学习与TensorFlow》也是不错的入门书籍。