某喵下载站:优质、全面、安全的专业下载站! 首页|最近更新|专题集合

记忆重构第一关怎么过(记忆密码(记忆数字密码大全))

时间:2023-05-10 11:32:49 来源:www.yusunny.com 人气:

为您带来最新记忆重构第一关怎么过(记忆密码(记忆数字密码大全)):
1、记忆密码(记忆数字密码大全)
2、深度强化学习领域近期有什么新进展
3、2020广东公考什么内容,怎么准备
4、如何高效复盘

1、记忆密码(记忆数字密码大全)
你好!7...

记忆密码(记忆数字密码大全)

你好!7758521仅代表个人观点,不喜勿喷,谢谢.

深度强化学习领域近期有什么新进展

深度强化学习是近年来人工智能领域内最受关注的研究方向之一,并已在游戏和机器人控制等领域取得了很多耀眼的成果。DeepMind 的工程师 Joyce Xu 近日发表了一篇博客文章,介绍了深度强化学习领域的一些近期进展,其中涉及到分层式强化学习、记忆、注意机制、世界模型和想象等方向。我觉得,深度强化学习最让人喜欢的一点是它确实实在难以有效,这一点不同于监督学习。用神经网络来解决一个计算机视觉问题可能能达到 80% 的效果;而如果用神经网络来处理强化学习问题,你可能就只能眼睁睁地看着它失败——而且你每次尝试时遭受的失败都各不相同。强化学习领域内的很多最大的挑战都围绕着两大问题:如何有效地与环境交互(比如探索与利用、样本效率),以及如何有效地从经历中学习(比如长期信用分配、稀疏奖励信号)。在这篇文章中,我希望探讨深度强化学习领域内试图解决这些挑战的几个近期研究方向,并且还会将其与人类认知进行优雅简洁的对比。具体而言,我将谈到:分层式强化学习记忆和预测建模将无模型方法与基于模型的方法组合到一起本文首先将简要介绍两个代表性的深度强化学习算法——DQN 和 A3C,以为后文提供能够作为参考的直观知识,然后我们会深入探讨几篇近期的论文和研究突破。DQN 和 A3C/A2C声明:我假设读者已经对强化学习有一定的基本了解了(因此这里不会提供有关这些算法的深度教程),但就算你对强化学习算法的工作并不完全了解,你应该也能阅读后文的内容。DeepMind 的 DQN(深度 Q 网络)是将深度学习应用于强化学习的最早期突破性成功之一。其中使用了一个神经网络来学习用于经典 Atari 游戏的 Q 函数,比如《乒乓球》和《打砖块》,从而让模型可以直接根据原始像素输入得出应该采取的动作。从算法上看,DQN 直接源自经典的 Q 学习技术。在 Q 学习中,一个状态-动作对的 Q 值(即 quality 值)是通过基于经历的迭代式更新来估计的。从本质上讲,对于某个状态下我们可采取的每个动作,我们都可以使用收到的即时奖励和对新状态的价值估计来更新原来的状态-动作对的价值估计:DQN 的训练是最小化时间差分误差(TD-error)的 MSE(均方误差),如上所示。DQN 使用了两个关键策略来使 Q 学习适用于深度神经网络,而且这两个策略也在后续的深度强化学习研究中得到了成功的应用。这两个策略为:经历重放(experience replay),其中每个状态/动作转换元组 (s, a, r, s』) 都存储在一个记忆「重放」缓存冲,并会被随机采样以用于训练网络,从而可实现对训练数据的重复使用和去除连续轨迹样本中的相关性。使用一个单独的目标网络(即上式中的 Q_hat 部分)来实现训练的稳定,所以 TD 误差不是根据源自训练网络的不断变化的目标计算的,而是根据由一个基本固定的网络所生成的稳定目标计算的。在那之后,DeepMind 的 A3C(Asynchronous Advantage Actor Critic)和 OpenAI 的同步式变体 A2C 也非常成功地将深度学习方法推广到了 actor-critic 方法上。actor-critic 方法将策略梯度方法与一种学习后的价值函数结合到了一起。对于 DQN 方法,我们仅有学习后的价值函数(即 Q 函数),而我们遵循的「策略」只是简单地在每个步骤取能最大化 Q 值的动作。使用 A3C 和使用其它 actor-critic 方法一样,我们会学习两个不同的函数:策略(即 actor)和价值(即 critic)。策略函数是基于采取该动作的当前估计优势(advantage)来调整动作概率,而价值函数则是基于经历和后续策略收集到的奖励来更新该优势:从上面的更新可以看出,价值网络会学习一个基线状态值 V(s_i;θ_v),我们可以将其与我们的当前奖励估计 R 进行比较,从而得到「优势」;策略网络则会通过经典的 REINFORCE 算法根据该优势调整动作的对数概率。A3C 真正的贡献在于其并行化和异步化的架构:多个 actor 学习器被分派到不同的环境实例中;它们全都会与环境进行交互并收集经历,然后异步地将它们的梯度更新推送到一个中心的「目标网络」(一个借用自 DQN 的思路)。之后,OpenAI 的 A2C 研究表明异步实际上对性能没有贡献,而且事实上还会降低样本效率。对这些架构的详细解释已经超出了本文的覆盖范围,但如果你和我一样对分布式智能体感兴趣,那一定要看看 DeepMind 的 IMPALA,这是一种非常有用的设计范式,可用于实现对学习的扩展:。DQN 和 A3C/A2C 都是非常强大的基线智能体,但是在面对更加复杂的任务、严重的部分可观察性和/或动作与相关奖励信号之间存在较长延迟时,这些智能体往往难以为继。因此,强化学习研究中有一整个子领域在致力于解决这些问题。接下来我们看看其中一些优秀的研究。分层式强化学习(HRL)分层式强化学习是一类从多个策略层学习的强化学习方法,其中每一层都负责控制不同层面的时间和行为抽象。最低层面的策略负责输出环境动作,让更高层面的策略可以操作更抽象的目标和更长的时间尺度。为什么这种方法很吸引人?首先也是最重要的一点是在认知方面,有很多研究都认为人类和动物行为都基于分层式结构。这在日常生活中有直观的体现:当我决定做一顿饭时(实际上我基本从不做饭,但为了合理论述,就假设我是一个负责的人类吧),我会将这一任务分成多个更简单的子任务(切蔬菜、煮面条等),但绝不会忽视我要做饭的总体目标;我甚至还能切换不同的子任务来完成同样的目标,比如不煮面条而是蒸饭。这说明真实世界任务中存在固有的层次结构和组合性质,因此可将简单的基础动作串接、重复或组合起来以完成复杂的工作。近些年的一些研究甚至发现 HRL 组件与前额叶皮质中的特定神经结构之间存在直接的相似性。从技术方面看,HRL 尤其引人注目,因为它能帮助解决我们前文提到的第二个问题的两大挑战:如何有效地从经历中学习(比如长期信用分配、稀疏奖励信号)。在 HRL 中,因为低层策略是基于高层策略分配的任务从内在奖励中学习的,所以尽管奖励稀疏,基础任务仍可得以学习。此外,高层策略发展起来的时间抽象让我们的模型可以根据时间上延展的经历来处理信用分配问题。所以 HRL 的工作是怎样的?目前有一些各不相同的方法都能实现 HRL。Google Brain 近期的一篇论文采用了一种尤其清晰和简单的方法,并为数据高效型训练引入了一些很好的离策略修正方法。他们的模型名为 HIRO:。μ_hi 是高层面的策略,其为低层面的策略输出需要实现的「目标状态」。μ_lo 是低层面的策略,输出环境动作以试图达成其目标状态观察。其设计思路是有两个策略层。高层策略的训练目标是最大化环境奖励 R。每 c 个时间步骤,高层策略都会采样一个新动作,这是低层策略所要达成的「目标状态」。低层策略的训练目标是选取合适的环境动作,使其能产生类似于给定目标状态的状态观察。举一个简单的例子:假设我们在训练一个机器人以特定的顺序堆叠彩色方块。我们仅有单个奖励 1 在任务成功最终完成时给出,所有其它时间步骤的奖励都是 0。直观地说,高层策略负责提出所要完成的必要子目标:也许它输出的第一个目标状态是「观察到一个红色方块在你面前」,第二个目标状态可能是「观察到蓝色方块在红色方块旁边」,然后是「观察到蓝色方块在红色方块上面」。低层策略在环境中探索,直到其找到用于产生这些观察结果所必需的动作序列,比如选取一个蓝色方块并将其移动到红色方块之上。HIRO 使用了 DDPG(深度确定性策略梯度)训练目标的一种变体来训练低层策略,其内在奖励被参数化为了当前观察与目标观察之间的距离:DDPG 是又一种影响深远的深度强化学习算法,其将 DQN 的思想扩展到的连续动作空间。这也是一种 actor-critic 方法,使用策略梯度来优化策略;但不同于 A3C 中那样根据优势来优化策略,它是根据 Q 值来进行优化。因此在 HIRO 中,所要最小化的 DDPG 邻近误差就变成了:同时,为了使用离策略的经历,高层策略使用了离策略修正来进行训练。其思想是:为了提升样本效率,我们希望使用某种形式的重放缓存,就像 DQN 一样。但是,过去的经历不能直接用于训练高层策略。这是因为低层策略会持续学习和改变,所以就算我们设置了与过去经历一样的目标,低层策略还是可能表现出不同的动作/转换。HIRO 中提出的离策略修正是为了回溯性地修改在离策略经历中看到的目标,从而最大化所观察到的动作序列的可能性。换句话说,如果重放经历表明过去的智能体采取动作 (x,y,z) 能达成目标 g,那么我们就寻找一个目标 g̃,使得它能让当前的智能体最有可能采取同样的动作 (x,y,z),即能够最大化该动作序列的对数概率(如下式)的动作。然后使用 DDPG 的一种变体在这些动作、新目标和环境奖励 R 上训练高层策略。HIRO 当然不是唯一一种 HRL 方法。FeUdal 网络是一种更早的相关研究(),其使用了一个学习到的「目标」表征而不是原始的状态观察。实际上,研究中的很多变体都源自学习有用的低层子策略的不同方法;很多论文都使用了辅助的或「代理的」奖励,还有一些其它研究实验了预训练或多任务训练。不同于 HIRO,这些方法中很多都需要某种程度的人工设计或领域知识,这从本质上限制了它们的通用性。近期也有研究在探索使用基于群体的训练(PBT,),这是另一个我个人很喜欢的算法。本质上讲,内部奖励被当作了附加超参数进行处理,通过在训练过程中「演进」群体,PBT 能学习到这些超参数的最优演化。HRL 是当前一个非常受欢迎的研究领域,而且也非常容易与其它技术组合到一起,比如这篇论文将 HRL 与模仿学习结合了起来:。但是,HRL 的核心只是一个非常直观的思想。HRL 是可扩展的,具备神经解剖学上的相似性,能解决强化学习领域内的一些基本问题。但和其它优秀的强化学习方法一样,它的训练难度颇高。记忆和注意现在来谈谈用于解决长期信用分配和稀疏奖励信号问题的其它方法。具体而言,我们要说的是最明显的方法:让智能体真正擅长记忆事物。深度学习中的记忆总是很有意思,因为不管研究者怎样努力(而且他们确实非常努力),很少有架构能胜过经过精心调节的 LSTM。但是,人类记忆的工作却与 LSTM 完全不同。当我们在处理日常生活中的任务时,我们会回忆和关注与场景相关的特定记忆,很少有其它内容。比如当我回家并开车到当地的杂货店时,我会使用我在这条道路上驾驶了数百次的记忆,而不是如何从 Camden Town 驱车到伦敦的 Piccadilly Circus 的记忆——即使这些记忆刚刚才加入我的经历,仍然活灵活现。就此而言,人类的记忆基本都是根据场景进行查询的——取决于我们在哪里以及做什么,我们的大脑知道哪些记忆对我们有用。在深度学习中,这一观点催生了外部的基于关键值的记忆。这并不是一个新思想;神经图灵机(,这是我读过的第一篇而且是最喜欢的论文)使用了一种可微分的外部记忆存储来增强神经网络,可以通过指向特定位置的向量值的「读」和「写」头来访问。我们可以很容易想到将其扩展到强化学习领域——在任意给定时间步骤,智能体都会获得其环境观察和与当前状态相关的记忆。这就是近期的 MERLIN 架构的所做的事情:。MERLIN 有两个组件:一个基于记忆的预测器(MBP)和一个策略网络。MBP 负责将观察压缩成有用的低维「状态变量」,从而将其直接存储到键值记忆矩阵中。它也会负责将相关的记忆传递给策略网络,然后策略网络会使用这些记忆和当前状态来输出动作。这个架构可能看起来有些复杂,但要记住,其策略网络只是一个输出动作的循环网络,而 MBP 也仅做三件事:将观察压缩成有用的状态变量 z_t,从而传递给策略。将 z_t 写入记忆矩阵获取其它有用的记忆并传递给策略其工作流程看起来是这样的:输入的观察首先被编码并被输入一个 MLP,这个 MLP 的输出会被添加到下一个状态变量的先验分布上,从而得到后验分布。这个后验分布基于所有之前的动作/观察以及新的观察,然后会被采样以产生一个状态变量 z_t。接下来,z_t 会被输入 MBP 的 LSTM,其输出会被用于更新先验分布以及通过向量值的「读取键」和「写入键」来对记忆进行读取/写入——这两者是以作为 LSTM 的隐藏状态的线性函数得到的。最后,下游的工作是策略网络使用 z_t 以及从记忆读取的输出来得出一个动作。其中一个关键细节是:为了确保状态表征有用,MBP 也经过了训练以预测当前状态 z_t 的奖励,这样所学习到的表征就与当前任务存在关联。MERLIN 的训练有一些复杂;因为 MBP 的目标是用作一种有用的「世界模型」,这是一个难以实现的目标,所以它实际上的训练目标是优化变分下界(VLB)损失。(如果你不熟悉 VLB,可以参考这篇文章:-lower-bound/ ;但就算你不理解,也不妨碍你理解 MERLIN。)这个 VLB 损失包含两个成分:在这下一个状态变量上的先验和后验概率分布之间的 KL 距离,其中后验分布还额外有新观察的条件。最小化这个 KL 距离能确保新状态变量与之前的观察/动作保持一致。状态变量的重构损失;我们试图在这个状态变量中重现输入的观察(比如图像、之前的动作等)并基于该状态变量预测奖励。如果这个损失很小,说明我们就找到了一个能准确表征该观察的状态变量,而且它还可用于产生能得到高奖励的动作。下式就是我们最终的 VLB 损失,其中第一项是重构损失,第二项是 KL 距离:这个策略网络的损失是我们上文讨论过的 A3C 的策略梯度损失的稍微更好的版本;它使用的算法被称为「广义优势估计算法」,其细节超出了本文的覆盖范围(但能在 MERLIN 论文附录的 4.4 节找到),但其看起来就类似于下面给出的标准的策略梯度更新:一旦训练完成,MERLIN 应该就能通过状态表征和记忆来预测性地建模世界,其策略也应该能够利用这些预测来选取有用的动作。MERLIN 并不是唯一一个使用外部记忆存储的深度强化学习研究。早在 2016 年,就有研究者将这一思想用在了 MQN(记忆 Q 网络)中来解决 Minecraft 中的迷宫问题: ;但使用记忆作为世界的预测模型的概念具有一些独特的神经科学方面的推动力。有一篇 Medium 文章()很好地解释了这一思想,所以这里就不再重复了,只说说其关键论点:不同于对大多数神经网络的解释,我们的大脑很可能不是以「输入-输出」机器的运作的。相反,其工作类似与一个预测引擎,我们对世界的感知实际上只是大脑对于我们的感官输入的原因的最佳猜测。神经科学家 Amil Seth 对 Hermann von Helmholtz 在 19 世纪提出的这一理论进行了很好的总结:大脑被锁在颅骨中。它所接受的都是模糊和有噪声的感官信号,这些信号仅与世界中的物体存在间接的关联。因此,感知必然是一个推理过程,其中非确定性的感官信号会与对世界的先前预期或「信念」结合起来,以构建大脑对这些感官信号的原因的最佳假设。MERLIN 的基于记忆的预测器的目标正是实现这种预测推理。它会对观察进行编码,然后将它们与内在的先验结合起来,从而生成一个涵盖输入的某些表征(或原因)的「状态变量」,这些状态会被存储在长期记忆中以便智能体之后能基于它们采取行动。智能体、世界模型和想象有意思的是,大脑类似预测引擎的概念会将我们带回我们想要探究的第一个强化学习问题:如何从环境中有效地学习?如果我们不能直接根据观察得到动作,那么我们又该如何最好地与周遭环境交互并从中学习呢?在强化学习领域,传统的做法要么是无模型学习,要么是基于模型的学习。无模型强化学习是学习直接将原始的环境观察映射到价值或动作。基于模型的强化学习则是首先学习一个基于原始观察的环境的过渡模型,然后使用该模型来选择动作。图中外圈表示基于模型的强化学习,包含「direct RL」的内圈表示无模型强化学习。比起无模型学习中单纯的试错方法,基于模型进行规划的样本效率要高得多。但是,学习优良的模型往往非常困难,因为模型不完美造成的误差往往会导致智能体表现糟糕。因为这个原因,深度强化学习领域内很多早期的成功研究(比如 DQN 和 A3C)都是无模型的。话虽如此,1990 年的 Dyna 算法()就已经模糊了无模型和基于模型的强化学习方法之间的界线,其中使用了一个学习后的模型来生成模拟的经历,以帮助训练无模型策略。现在,已有研究将这两种方法直接组合到了一起,即「想象力增强的智能体」算法(I2A,)。在 I2A 中,最终策略是一个与无模型组件和基于模型的组件相关的函数。基于模型的组件被称为该智能体对世界的「想象」,其由该智能体内部的学习后的模型所产生的想象轨迹组成。但是,其关键的地方在于基于模型的组件的末端还有一个编码器,它会将想象轨迹聚合到一起并解读它们,使得智能体能学习在有必要时忽略自己的想象。也就是说,如果智能体发现其内部模型投射的轨迹是无用的和不准确的,那么它就可以学会忽视该模型并使用其无模型分支进行处理。上图展示了 I2A 的工作。观察一开始就会被传递给无模型组件和基于模型的组件。在基于模型的组件中,会根据在当前状态可能采取的 n 个动作来想象 n 个不同的轨迹。这些轨迹是通过将动作和状态输入其内部环境模型而得到的,从而能够过渡到新的想象状态,然后取其中能得到最大化结果的动作。一个蒸馏后的想象策略(与通过交叉熵损失的最终策略相似)选择下一个动作。经过固定的 k 个步骤之后,这些轨迹会被编码并被聚合到一起,然后会与无模型组件的输出一起输入策略网络。关键的地方在于,这种编码能让策略以最有用的解读想象轨迹——如果不合适就忽视它们,在可用时就提取出其中与奖励无关的信息。I2A 的策略网络是通过一个使用优势的标准策略梯度损失训练的,类似于 A3C 和 MERLIN,所以这应该看起来很眼熟:此外,在实际策略和内部模型的想象策略之间还添加了一个策略蒸馏损失,以确保想象策略选择的动作接近当前智能体会选择的动作:I2A 的表现优于包含 MCTS(蒙特卡洛树搜索)规划算法在内的很多基准。即使在其基于模型的组件被故意设计得预测结果很差时,它也能在实验中得到出色的表现,这说明它能权衡所要使用的模型——在有必要时也会使用无模型方法。有意思的是,内部模型较差的 I2A 的表现实际上还稍微优于有较好模型的 I2A——研究者将其归因于随机初始化或有噪声的内部模型能提供某种形式的正则化,但很显然这还是一个有待进一步研究的领域。不管怎样,I2A 都很出色,因为它在某些方面也体现了人类在世界中的运作。我们总是在根据对我们所处的环境的某个心智模型来规划和预测未来,但我们也都清楚我们的心智模型并不完全准确——尤其是当我们处在新环境中或遇到我们未曾见过的情形时。在这种情况下,我们会进行试错,就像是无模型方法一样,但我们也会使用新的经历来更新我们内在的心智模型。目前有很多研究者都在探索如何有效结合基于模型的方法和无模型方法。Berkeley AI 提出了一种时间差分模型:;其也有一个非常有趣的前提。其思想是让智能体设置更多时间上抽象的目标,即「在 k 个时间步骤内处于 X 状态」,然后在保证最大化每 k 个步骤所收集到的奖励的同时学习这些长期的模型过渡。这能为我们提供对动作的无模型探索和在高层目标上的基于模型的规划之间的平滑过渡——如果思考一下这种方法,你会发现这又会将我们带回分层式强化学习。所有这些研究论文都关注的是同样的目标:实现与无模型方法同样(或更优)的表现,同时达到基于模型的方法那样的样本效率。总结深度强化学习模型确实很难训练,这一点毫无疑问。但正是由于这样的难度,我们才提出了那么多的策略、方法和算法,以便能借助深度学习的强大力量来解决经典(或非经典)的控制问题。这篇文章对深度强化学习的近期研究进行了不全面的介绍——还有大量研究没有提及,甚至还有很多研究我根本就不知道。但是,希望这里介绍的一些记忆、分层和想象方向的研究能够帮助读者了解我们着手解决强化学习领域内一些长期挑战和瓶颈的途径。

2020广东公考什么内容,怎么准备

同学您好,庵埠华图教育为您解答!广东省公目前笔试科目为《行政能力测验》和《申论》。如果考公安类或乡镇类,则需要考多一个对应的专项。《行政能力测验》的常见题型:言语理解、常识、数量与资料分析、判断推理。考试的时间正常是90分钟,一百道题。《申论》则是给予考生对应的题材,考生针对题材发挥自己的看法,如议论文。考试一般为两个小时。准备的话,为了保证更好备考,建议是报名课程比较好的,华图教育就是以“好老师、好课程、好服务”作为他们的宗旨,跟随华图老师一起上课,才能事半功倍,课程进行到自己感觉基础较为巩固的时候,可以在老师带领下进行刷题训练,提高做题速度。

如何高效复盘

2018年就这么悄无声息地过去了,在年末的最后一天,我都会撇开所有的事情,专心总结与反思过去的一年,并为新的一年做好计划。未来,永远都是掌握在自己的手中,应该知道自己收获了什么,失去了什么,暴露了哪些弱点,在新的一年里应该怎样扬长补短,以取得更好的成长。努力,是对人生最好的态度!1、读书复盘:读完670本书,书都带给了我什么?我在读博前给自己定了一个目标,以俞敏洪为榜样(大学4年读了800本),我要在4年博士生涯中读完1000本书。时至今日,2年半过去了,我一共读完了670本(2018年读完了301本),预计2019年底可以达成目标。在我写这篇总结的时候,我想到:都说读书能带来改变,虽然是潜移默化的改变,可能1年看不出来,那2年半了,也该有点苗头了吧。但我感觉自己还是那样啊,说的现实点是没赚到钱,说的文艺点是压根就没什么成就。那,读书到底带给了我什么呢?读书真的有用吗?我想了好久也没想到合适的、令人满意的答案,直到我制定了2019年的读书计划及书籍阅读方向后,我才“或许”发现了一点“可能的迹象”。2017年,我读的书主要是历史、传记、名著等以文学为主的领域,特点是不烧脑、看的基本都是故事。我2017年推荐的书单也基本都会文学书,比如《飘》等等。(在我的个人公号“千城撩书”,后台回复“2017书单”,可以获得317本书单列表)。2018年,我读的书主要是经济、管理、文化、职场等以经管为主的领域。特点是契合我对提升个人思维、格局、眼界等方面的需求,今年我推荐的书也都是以此类书籍为主,如德鲁克的两本书等等。(在我的个人公号“千城撩书”,后台回复“2018书单”,可以获得301本书单列表)。2019年,我计划阅读的书是商业、社科、理财等能对当下产生实际效益的领域的书籍,目的是让自己全方面提升实战能力。从2018年开始我已经很少看文学、历史等书籍了,我更喜欢有深度、能带来新知、获得一点启发的书。而2019年,在1000本书的最后1/3阶段,我更关注实效,促进实际行动、产生实际效益、能应用并带来价值的书籍。2017年,我把我前20多年想读但没读过的经典文学书籍都读完了,算是补课。2018年,我把目前学习和工作需要的书籍也读的差不多了,算是同步学习。2019年,更希望能超前读书,让自己阅读的知识水平超过当下的个人能力。当我发现了前面这个趋势后,我觉得这并不是一个清晰准确的特征,也没有特定的含义。但我的阅读需求的确在持续的变化,思维也在发生改变,我想这就是2年半的读书带给我的价值。2、写作复盘:50w字、120w字的写作带给了我什么?现在是写作的时代,新媒体的出现释放了无数人的“写作能量”,月入几千、过万、甚至十万的人不断涌现。只要你愿意努力,你会发现这是普通人最好的时代。今年在多个平台陆续写作了50w 字,两年多来坚持写作120w 字。后半年因为战略方向的调整,略有停断。但随着2019年新目标的建立,将会重新出发,每周至少三更。我一直有一个观点:读书不能停、思考不能停、写作不能停,只有持续的学习、高效的执行,再匹配坚持不懈的精神,才能带来更多成长与“可能”。其实,我发现我到现在也没学会新媒体写作方法,都是随性而写,属于自嗨型写作,比如这篇复盘。我写作的内容一般是我读完、思考后认为对自己有价值的点,能让我获得一点新知。但如果想通过写作赚钱,建议还是要好好学习下相关的方法,买一些课程、请教下大咖、并坚持练习。3、时间管理复盘:整整记录了1年的时间开销,我发现了什么?2018年全年,我每天都记录自己的“有效工作时间”,用的APP是“aTimelogger”。我自己定义的有效工作时间是“能促进自身更好成长的纯时间投入”,此处有个“纯”字。比如写论文、写文章、读书、健身、有价值的谈话等。而吃饭、发呆、休息、娱乐、陪家人、睡觉以及工作间隙喝水、上厕所,都不算在内,我在每日记录时都已经扣除了。这个方法我学习自前苏联的柳比歇夫,如果想了解具体操作,建议读一下《奇特的一生》这本书。2018年1月1日-12月30日刚好52周,364天,8736个小时,我的全年时间开销如下:此前我从未统计过自己的时间,但今年践行下来,才发现自己的时间利用率如此低下,有效工作时间仅仅2680个小时,31%。而未被利用的时间是3326小时,占比高达38%。睡眠时间我是用小米手环来统计,每天都会提示自己的睡眠时间。但亡羊补牢,犹未晚矣。2018年当做试水,根据2018年的时间统计结果,我计划了2019年的时间分配。2019年计划全年将减少364小时的睡眠时间,并多利用1336小时的未被利用时间,这样可以多出来1700个小时的时间用在“有效工作、有价值、有意义”的事情上,包括写论文、个人成长、健身运动、工作等等,并细化出了季度目标及每周时间分配。多出来这1700个小时,相当于我过了1.6个2018年。我想,这就是时间的厚度。4、健身运动复盘:全年1000公里跑步 N分钟的健身,我收获了什么?2017年末,因为长期久坐码字,有一天突发脊椎劳损,休养了很久。当时的恐惧感我依然历历在目,我才不到30岁,正直身体巅峰期,怎么会落得这种病痛。于是,从2018年3月份天气回暖开始,坚持规律的运动习惯。一年下来,跑步将近1000公里,在Keep上跟了N分钟的各种练习,也在健身房开始上器械。体重从年初67kg减到58kg,然后增肌到63kg,体脂率维持在15-16%,隐约有腹肌轮廓,内脏脂肪降到最低,肺活量变得强大,跑步8公里只会膝盖有点僵硬,并不会很累,全年身体状况良好,甚至自认为接近优秀(允许我小傲娇一下,没有什么比改造自己的身体更值得高兴的了)。以前因肥胖、久坐引起的懒惰心理、腰酸背疼等问题都已经消失。我很感谢曾国藩,这是我读完他的书后学习来的——修身、自律。2019年将会继续保持健身运动的习惯,不求练出健身教练那样的身材,只有保持健康、充满活力的体魄,以更好的体魄带动自己走向灿烂的星辰大海。5、修心、计划、反思复盘:王阳明的故事教会了我什么?在2017年制定的计划里,原本是没有这一项的。因为今年读了王阳明的书籍,才发现原来在”曾国藩的修身“以外,还有”修心“这一说。具体是情绪管理、沟通能力、日常反思等方面的训练。今年在生活上发生了很多突发且重要的事情,自己处理地并不是很好,也才发现在心绪能力上存在非常大的短板。于是,在下半年读完王阳明的书后开始有导向的训练自己,但并没有成体系化,也没系统设计。在2019年的计划里,已经将这一块纳入进去。如果用一句话来总结王阳明的书籍带给我的体会,就是:越是艰难处,越是修心时。人生中会遇到很多的艰难困苦,越是在这种时候越能体现人的心性修养。寻常人往往慌乱悲戚,唯有修养深厚者能做到泰然处之。王阳明有句话说道:人须在事上磨,方能立得住;方能静亦定,动亦定。艰难困苦,正是对心性的最好磨砺。上半年我坚持每天计划、反思自己,但下半年因为很多原因(其实都是自己找借口),造成了下半年坚持的并不好,也在个人成长方面出现了停顿。直到年底我开始系统反思2018年,计划2019年,我才领悟到,其实计划与反思本身也是修炼的一种有计划的人生才会觉得心里有底,有反思的人生才不会再次踩雷。所以,2019年将会重拾日常计划与反思的习惯,并写到了年度计划里,将会努力把它们像读书、写作、运动一样融汇到我的生活与工作中,像吃饭、睡觉一样成为常态,而不是需要刻意提醒自己。6、最后,致敬未来So,2018年过去了,复盘到最后,我给自己打65分。增分项来自于我拜了三位老师:师从曾国藩,学习修身自律;师从王阳明,学习磨练心性修养;师从德鲁克,学习管理与实践。减分项在于自己在计划、反思、坚持、心绪等方面暴露的弱点,以及并未取得特别拿得出手的成就。2019年的目标及详细计划已经制定(仅供孤芳自赏)。借用在朋友圈里看到的一句话结尾吧:不要给自己的人生设限,只要不设限,你永远不会知道一年后的自己将会变成多么优秀的样子。所以,2019年,我将不会给自己设限!在1年后,遇见更优秀的自己!

标签
推荐文章