WC2019 20天训练】的更多相关文章

Day -1 2019.1.2 初步计划: 0x60 图论 std 洛谷提高剩余练习 NOIP2018遗留题解 洛谷省选基础练习 数学: 1.数论 2.组合数学(练习:莫比乌斯反演) 3.概率(练习:概率期望) 4.计算几何 5.函数(CF1096G题解) 洛谷省选高级数据结构练习: 1.单调队列 2.点分治 3.主席树 4.平衡树 5.树链剖分 6.动态树 7.树套树 8.莫队算法 9.分块 Day 0 2019.1.3 复习最短路+最小生成树 std×10 明天计划:树的直径与最近共同祖先+…
Day 0 2018.10.20 其实写的时候已经是Day 1了--(凌晨两点) 终于停课了,爽啊 get树状数组+线段树(延迟标记) 洛谷:提高组所有nlogn模板+每日一道搜索题(基本的图的遍历题,然而还是看了题解) 学习时间:3.5小时 明天洛谷上有两场训练赛,争取总分300+ 明天get扫描线+分块 Day 1 2018.10.21 并没有get任何新东西-- 在洛谷上打了两场比赛 上午第一场,3.5小时3题.8:30开始然而10:00才开始打.一个半小时一题都没A.原本以为T1肯定能A…
1 最近碰到一些 OIers 问我学 OI 的经历 回忆了一下,我做的第一道题是A+B Problem,时间:2018年2月15日 呀,正好一年了 2 我是来自 HB 的 OIer 一枚 现在高一,就读于WHEZ 姓名缩写 xht 常用昵称 xht37 别问我为什么后面要加上37,俺也不知道(雾 3 2018年2月15日->2018年8月15日 正好半年沉迷于这本书无法自拔: 没错,一本入门级的语言书 Q:为什么进度这么慢,要花半年时间入门+学语言? A:emmm...... 这个问题有必要好好…
经过一个多月的努力,终于完成了BP网络,参考的资料为: 1.Training feed-forward networks with the Marquardt algorithm 2.The Levenberg-Marquardt method for nonlinear least squares curve-fitting problems 3.Neural Network Design 4.http://deeplearning.stanford.edu/wiki/index.php/UFL…
本文在Ubuntu下使用tensorflow的object detection API来训练自己的数据集.所用模型为ssd_mobilenet,也可以使用其他的模型.当然也可以在windows下训练,代码上没有多大差别,主要是配置环境那里,比较麻烦(windows和linux下都一样麻烦). 一.配置环境 1. 在GitHub上下载所需的models文件,地址:https://github.com/tensorflow/models. 2. 安装pillow.lxml.Jupyter Noteb…
Tree-AC比赛记录 2018 ICPC nanjing     Bronze  120/310 ICPC qingdao    Bronze  153/360 2019 ZJPSC             Silver 20/192 训练记录(自2019.1.20开始记录) 2019 CCPC-Wannafly Winter Camp(div2) CCPC-Wannafly Winter Camp Day1                         4/11   2019/1/20 C…
人脸检测及识别python实现系列(5)——利用keras库训练人脸识别模型 经过前面稍显罗嗦的准备工作,现在,我们终于可以尝试训练我们自己的卷积神经网络模型了.CNN擅长图像处理,keras库的tensorflow版亦支持此种网络模型,万事俱备,就放开手做吧.前面说过,我们需要通过大量的训练数据训练我们的模型,因此首先要做的就是把训练数据准备好,并将其输入给CNN.前面我们已经准备好了2000张脸部图像,但没有进行标注,并且还需要将数据加载到内存,以方便输入给CNN.因此,第一步工作就是加载并…
基于深度学习和迁移学习的识花实践(转)   深度学习是人工智能领域近年来最火热的话题之一,但是对于个人来说,以往想要玩转深度学习除了要具备高超的编程技巧,还需要有海量的数据和强劲的硬件.不过 TensorFlow 和 Keras 等框架的出现大大降低了编程的复杂度,而迁移学习的思想也允许我们利用现有的模型加上少量数据和训练时间,取得不俗的效果. 这篇文章将示范如何利用迁移学习训练一个能从图片中分类不同种类的花的模型,它在五种花中能达到 80% 以上的准确度(比瞎蒙高了 60% 哦),而且只需要普…
目录预训练源码结构简介输入输出源码解析参数主函数创建训练实例下一句预测&实例生成随机遮蔽输出结果一览预训练源码结构简介关于BERT,简单来说,它是一个基于Transformer架构,结合遮蔽词预测和上下句识别的预训练NLP模型.至于效果:在11种不同NLP测试中创出最佳成绩关于介绍BERT的文章我看了一些,个人感觉介绍的最全面的是机器之心再放上谷歌官方源码链接:BERT官方源码在看本博客之前,读者先要了解:1.Transformer架构2.BERT模型的创新之处3.python语言及tensor…
[注]该系列文章以及使用到安装包/测试数据 可以在<倾情大奉送--Spark入门实战系列>获取 .MLlib实例 1.1 聚类实例 1.1.1 算法说明 聚类(Cluster analysis)有时也被翻译为簇类,其核心任务是:将一组目标object划分为若干个簇,每个簇之间的object尽可能相似,簇与簇之间的object尽可能相异.聚类算法是机器学习(或者说是数据挖掘更合适)中重要的一部分,除了最为简单的K-Means聚类算法外,比较常见的还有层次法(CURE.CHAMELEON等).网格…