前言 首先标题党一下,其实这篇文章主要是记录我的第二个过 1K star 的项目 Java-Interview,顺便分享下其中的过程及经验. 需求选择 Java-Interview 之所以要做这个项目主要是当时我正在面阿里的两个部门,非常幸运的是技术面都过了.其中的过程真是让我受益匪浅更是印象深刻,所以就想把期间的问题记录下来,加上自己的理解希望能对其他朋友起到帮助. 正好那段时间也是传说中的金三银四,所以无形中也叫顺势而为吧…
前言 Apache RocketMQ 作为广为人知的开源消息中间件,诞生于阿里巴巴,于 2016 年捐赠给了 Apache.从 RocketMQ 4.0 到如今最新的 v4.7.1,不论是在阿里巴巴内部还是外部社区,都赢得了广泛的关注和好评. 本文将站在发送方视角,通过阅读 RocketMQ Producer 源码,来分析在事务消息发送中 RocketMQ 是如何工作的. 需要说明的是,本文所贴代码,均来自 4.7.1 版本的 RocketMQ 源码.本文中所讨论的发送,仅指从 Producer…
[导语]:一款在 PC 端控制安卓设备的小工具.可在 PC 和安卓设备间互通剪贴板.用电脑键盘打字.传输文件.安装程序.截图.录屏等等功能. 简介 scrcpy 可以显示并控制通过 USB (或 TCP/IP) 连接的安卓设备,且不需要任何 root 权限,支持 GNU/Linux.Windows 和 macOS. 特性 轻量 (原生,仅显示设备屏幕) 性能 (30~60fps) 质量 (分辨率可达 1920×1080 或更高) 低延迟 (35~70ms) 快速启动 (最快 1 秒内即可显示第一…
大家好!我是韩老师. GPT, ChatGPT, OpenAI, LLM(大语言模型)等等技术的出现与应用,改变了许多的行业和人. 长期来看,类 GPT 的技术会对整个世界有着持续的改变. 我们几乎每天都会看到新的类 GPT 的服务.应用.框架.工具等内容的出现.然而,这些信息往往都是支离破碎,来自不同渠道的.稍有不注意,就会落下最新的信息,从而有可能失去一个新机会. 那么,有没有一个地方,可以看到最新的 GPT.大模型相关的最新内容呢? 于是,我就创建了 Awesome GPT 这个 GitH…
本人的笔记本自带的是WIN8系统,现在想安装WIN7的系统,但是安装不了,提示"windows无法安装到这个磁盘.选中的磁盘采用GPT分区形式". 通过上网搜索得知WIN7一般安装在MBR分区上,GPT分区形式是比较新的分区模式. 但WIN7也可以安装在GPT分区模式上,BIOS需要开启UEFI. 有关MBR和GPT分区的介绍如下: 以下转自: GPT分区基础知识及如何在GPT分区上安装WIN7 大硬盘和WIN8系统,让我们从传统的BIOS+MBR模式升级到UEFI+GPT模式,现在购…
2016年,在一次技术调研的过程中认识到了 Spring Boot ,试用之后便一发不可收拾的爱上它.为了防止学习之后忘记,就在网上连载了 Spring Boot 系列文章,没想到这一开始便与 Spring Boot 深度结缘. 近三年的时间写了一百多篇关于 Spring Boot 的文章(包含两个课程),在写文章的过程中将文中的示例项目托管在 Github 上面,随着学习 Spring Boot 的朋友越来越多,在 Github 上面的关注(Star)人数也越来越多,到现在已经高达 8300…
目录 简介 预训练任务简介 自回归语言模型 自编码语言模型 预训练模型的简介与对比 ELMo 细节 ELMo的下游使用 GPT/GPT2 GPT 细节 微调 GPT2 优缺点 BERT BERT的预训练 输入表征 Fine-tunninng 缺点 ELMo/GPT/BERT对比,其优缺点 BERT-wwm RoBERTa ERNIE(艾尼) 1.0 ERNIE 2.0 XLNet 提出背景 排列语言模型(Permutation Language Model,PLM) Two-Stream Sel…
网上连载了 Spring Boot 系列文章 这个开源项目就是 spring-boot-examples ,这是一个专注帮助初学者学习 Spring Boot 的开源项目,里面分享了各种场景下 Spring Boot 使用示例,此开源项目下都是一个一个独立的小项目,以最小依赖.最简单的方式呈现出来,非常方便初始者学习. spring-boot-examples(star 8333+) 项目主页 https://github.com/ityouknow/spring-boot-examples 产…
其中,Transformer和BERT来自Google,GPT系列[GPT.GPT-1.GPT-2.GPT-3.ChatGPT.GPT-4]来自OpenAI. GPT Paper名为Improving Language Understanding by Generative Pre-Training,通过生成式预训练模型来提高语言理解. GPT,将Transformer的Decoder拿出来,在大量没有标注的文本数据上进行训练,得到一个大的预训练的语言模型.然后再用它在不同子任务上进行微调,最后…
一.Transformer模型 2017年,Google在论文 Attention is All you need 中提出了 Transformer 模型,其使用 Self-Attention 结构取代了在 NLP 任务中常用的 RNN 网络结构.相比 RNN 网络结构,其最大的优点是可以并行计算.Transformer 的整体模型架构如下图所示 0x1:Transformer概览 首先,让我们先将Transformer模型视为一个黑盒,如下图所示.在机器翻译任务中,将一种语言的一个句子作为输入…