写作结构:
每篇以周为单位。增加周反省与计划。
1、计划内容完成情况
1)完成度(%)
2)分析
3)调整
2、aTimeLoge监测情况
1)超标、未达标项目及可提升项目(截图)
2)调整
3、app使用情况
1)时长频次说明(截图)
2)超出时长的app分析
3)策略,调整
4、导致意外产生的关键点及内心想法分析及应对思路(情境还原)
例如:根据aTimeLoger记录显示在14:35分之后一直处于娱乐状态直到17:30分。明显脱离计划。分析其转折点的内心状态、想法。
5、明日(下周)计划的调整及新增实验策略。
6、反省写作模式调整(周/次)
4-24
1、计划内容完成情况
1)完成度(%)
计划内容:初步学会正则,可以应用。练习实例应用正则。多网页自动爬取探究
估测30%
2)分析
计划内容需要分割、量化;留出适当偏多的时间。
3)调整
明天完成:学会用函数组织爬虫-完成实例;搜集自动爬虫的相关资料并了解(有余力)
2、aTimeLoge监测情况
1)超标、未达标项目及可提升项目(截图)
娱乐时间、杂事时间超标2倍+
读书记笔记、运动未完成
2)调整
3、app使用情况
1)时长频次说明(截图)
5时19分;雪球使用2.5小时
2)超出时长的app分析
雪球、uc。
雪球,小原因导致大块时间浪费(购股看盘需要)
uc,止不住的乱刷
3)策略,调整
若有交易计划,在每天上午9:30——10:00下午2:20——2:50时间段关注。若无,按规定时长关注。
4、导致意外产生的关键点及内心想法分析及应对思路(情境还原)
今天转折点在下午2点,爬虫实战中解决了不少问题,提升了信心,接下来就要整python函数了。因为对于当下的信心及对于函数的阴影以及一个好借口:逢时买入看好的标。便看盘到3点。接着刷雪球、看手机资讯,一直无法将注意力转移到爬虫上来......
应对方法:用定时器提醒自己。在进行一项自己可能会浪费时间的事情时,预估时间并定时提醒。
5、明天完成:学会用函数组织爬虫-完成实例;搜集自动爬虫的相关资料并了解(有余力)
明天可能产生交易,上午9:30——10:00下午2:20——2:50时间段关注。
6、这种模式太冗长、浪费时间。需要缩减。
(补)4-25
1、计划内容完成情况
1)完成度0%
2)分析
从上一个计划日带来的理所当然的“明天可能产生交易,上午9:30——10:00下午2:20——2:50时间段关注”产生借口。进而计划卒
3)调整
不给自己偷懒的机会。
对于所谓的交易不去安排固定时间以最小量化的方式去处理,而是以提醒的方式(价位目标提醒)
2、aTimeLoge监测情况
1)超标、未达标项目及可提升项目(截图)
全部未达标
2)调整
3、app使用情况
1)时长频次说明(截图)
3时56分
2)超出时长的app分析
雪球
3)策略,调整
定时器策略
4、导致意外产生的关键点及内心想法分析及应对思路(情境还原)
例如:根据aTimeLoger记录显示在14:35分之后一直处于娱乐状态直到17:30分。明显脱离计划。分析其转折点的内心状态、想法。
5、明日(下周)计划的调整及新增实验策略。
学习多网页自动爬取,运用函数和其他;定时器策略
4-26
1、计划内容完成情况
1)完成度(%)
80%
2)分析
整体解决问题,学习的思路有点乱,但勉强有成果
3)调整
明确大的原则:
a,在遇到问题时(像如何如何操作,这段代码什么意思),先思考,再行动,避免盲目搜索
b,明确什么学习资源应该最有效,该最先搜索、学习——(收费、系统的资源,而非一些零散的博客)
c,如何更高效使用搜索引擎——学会如何提问(针对搜索引擎,针对你的问题)
2、aTimeLoge监测情况
1)超标、未达标项目及可提升项目(截图)
表扬,今天提高神速。
超标:杂事时间
不及预期:读书记笔记,忘了
2)调整
不要滥用杂事时间,不要低估娱乐时间
3、app使用情况
1)时长频次说明(截图)
2.7小时
雪球1.7小时
2)超出时长的app分析
今天三聚狂跌,补仓。但看盘仍太久
3)策略,调整
定时器
4、导致意外产生的关键点及内心想法分析及应对思路(情境还原)
今天上午搜到例子解决多网页自动爬虫问题——卡在了requests.post(url,data)中的data上,不是到data参数来自哪里——(大约感觉和httpfox以及html知识相关)加载httpfox,无用,查看html相关知识无用——(感觉详细了解requests包的话会解决)搜索,无用——(感觉有用requests.post实例爬虫的话,会理解)搜索例子,没合适的。
今天下午看到一个xpath爬虫视频教程,转而学习,在了解实例的过程中发现通过url的改动配合循环语句可以实现自动化——尝试复制这个方法。因为模式不相同,无用——接着发现两条道路:发现其实上午的例子自动化的关键不在post,而在另一段代码;发现可以通过变通的方式应用xpath解决我例子的问题(可是搜集的资料可能不全,且我还不太熟悉xpath)。
傍晚先解析那段长代码——晚上,还没解析完(其实多网页自动化的原理已经理解到了,但没全懂),其中的class类函数挺深奥
点评及建议:总体来说解决问题的思路并不清晰且半途而废的比较多(一看代码繁琐就不细看了;对python2版本的代码忽视度较高)且没在问题一出现抓住重点。而是在走了一圈后才发现。可以说上午对request.post的搜索就是没抓住关键点。
先思考,慢思考,再行动
5、明日(下周)计划的调整及新增实验策略。
先思考,慢思考,再行动
定时器策略用于雪球、休息
用 xpath完成多网页爬虫并执行