由于Gitee作为图床的仓库被禁止开源,导致图片无法访问,所以转用Github作为图床。
聊聊Java类型擦除、Flink中使用Lambda表达式丢失信息和Flink类型暗示机制
最近在学Flink时发现,由于Java类型擦除的存在,导致Flink中使用Lambda表达式时,无法检测出泛型的类型,需要使用Flink类型暗示(type hint)机制才能解决。现在我们就深入剖析一下吧!
从源码角度分区Yarn-Cluster任务提交流程
Yarn Cluster任务提交分为三个部分:
- 用户编写好的Spark应用程序提交到Yarn上(截止到ApplicationMaster启动Driver那一步)
- Driver对用户的应用程序进行App->Job->Stage->Task划分
- Driver分发Task到Executor上
首先,我将自己总结的详细流程介绍一下,
然后,从源码部分一步一步解释上面的具体实现。
【已解决】Exception in thread "main" java.lang.InternalError Malformed class name
java.lang.InternalError: Malformed class name解决方法
基于SA-Conv-CTC/Attention端到端语音识别模型的基本原理、实现方法和主要流程
摘要
我们知道,传统的语音识别系统分为三大组件,分别是词汇字典、声学模型和语言模型,这使得我们不得不单独训练声学和语音模型[1]。近年来,端到端(E2E)语音识别系统越来越受欢迎,与传统的语音识别系统不同,E2E语音识别系统直接将输入的语音转换成字符或单词,只基于配对的语音数据和语言数据,而不依赖其他独立组件,这使得E2E模型开始被广泛应用。随着Self-Attention应用,E2E语音识别模型的性能有了很大的提升,Transformer更是把这种机制发挥到了极致,吸引了大量的学者研究。另一方面,基于CTC/Attention的混合模型在解码方面具有非常突出的优势,它既可以CTC实现输出序列与输入序列的时间顺序对齐,又可以通过Attention把握token在整个序列中的重要程度。本文主要研究2020年提出的一种全新E2E混合模型SA-Conv-CTC/Attention,它基于CTC/Attention,又将Self-Attention与浅卷积的混合编码器应用到CTC/Attention架构中,从而取得了具有竞争力的性能。与主流的混合模型相比,SA-Conv-CTC/Attention降低了约0.8~4.75%的错误率。
关键词:自注意力/卷积混合编码器;连接时序分类/注意力混合模型;自注意力语言模型;端到端的语音识别
使用yolov5训练自动驾驶目标检测数据集BDD100K
使用yolov5训练自动驾驶目标检测数据集BDD100K!
Hive动态分区多种插入方式总结
Hive动态分区的多种插入方式。
集合排序Comparator和Comparable的使用区别
Comparable可以认为是一个内比较器,而Comparator可以认为是一个外比较器。下面看一下如何进行集合排序,常用的方法有: Comparator
和Comparable
Java队列的常见操作
Java队列的常见操作
为什么Hive中的group by后面不能使用字段别名?
为什么Hive中的group by后面不能使用字段别名呢?看了这篇文章你将一目了然。