深度学习超级采样是英伟达开发的一种图像缩放技术,可实时用于视频游戏中,这种技术利用深度学习将较低分辨率的图像图像缩放为更高分辨率的图像,以便在更高分辨率的计算机显示器上显示。
普热梅斯瓦夫·卡津科是波兰弗罗茨瓦夫的教授。他是加州大学、圣母大学、伦斯勒理工大学、悉尼科技大学、约瑟夫·斯特凡学院、都柏林三一学院的客座教授,超过200种出版物的作者,波兰机器学习、人工智能和深度学习方面的专家。他的研究领域主要包括社交网络分析和情感分析。
脑波分析也称为脑电图分析,是用数学的信号处理以及电脑科技,从脑电图信号中提取相关资讯。脑波分析的目的是帮助研究者对人脑有进一步的了解,辅助医生的诊断以及疗法的选择,并且提升脑机接口的技术。脑波分析的技术有许多分类的方式,若是要从脑电图信号中找到大致符合脑电图信号的数学模型,此方法可以分类为参数型,否则,就是非参数型的方式。传统上,大部分的脑波分析方法可以分为四类:时域、频域、时频分析及非线性系统方法,也有一些较新的方法,包括使用深度学习的方法。
Deeplearning4j是为Java和Java虚拟机编写的开源深度学习库,是广泛支持各种深度学习算法的运算框架。Deeplearning4j可以实施的技术包括受限玻尔兹曼机、深度置信网络、深度自动编码器、堆叠式降噪自动编码器、循环神经张量网络,以及Word2vec、doc2vec和GloVe。这些算法全部包括分布式并行版本,与Hadoop和Apache Spark集成。Skymind是Deeplearning4j的商业支持机构。
Keras是一个用Python编写的开源软件人工神经网络库,能够在TensorFlow、Microsoft Cognitive Toolkit、Theano或PlaidML之上运行。Keras旨在快速实现深度学习,专注于用户友好、模块化和可扩展性,是ONEIROS项目研究工作的部分产物,主要作者和维护者是Google工程师弗朗索瓦·肖莱。肖莱也是XCeption深度神经网络模型的作者。
信息瓶颈是信息论中的一种方法,由纳夫塔利·泰斯比、费尔南多·佩雷拉与威廉·比亚莱克于1999年提出。对于一随机变量
X
{\displaystyle X}
,假设已知其与观察变量
Y
{\displaystyle Y}
之间的联合概率分布
p
{\displaystyle p}
。此时,当需要概括
X
{\displaystyle X}
时,可以通过信息瓶颈方法来分析如何最优化地平衡准确度与复杂度。该方法的应用还包括分布聚类与降维等。此外,信息瓶颈也被用于分析深度学习的过程。
约书亚·本希奥,加拿大人计算机科学,因人工神经网络和深度学习领域的研究而闻名。
认知电脑是一种试图重现人脑行为,并且结合了人工智能及机器学习算法的芯片,一般采用神经形态工程的方法,其中一例为IBM公司以神经网络和深度学习实现的沃森。IBM公司后续还开发了TrueNorth微芯片架构,与传统电脑中使用的冯·诺伊曼结构相比,其设计结构更加接近人脑。2017年,英特尔也公布了自家版本的认知芯片“Loihi”,于2018年提供给大学及研究实验室。英特尔、高通和其他公司也正逐步改进神经形态处理器,包括英特尔的Pohoiki Beach和Springs系统。
杰弗里·埃弗里斯特·辛顿,皇家学会会员,英国出生的加拿大计算机科学和心理学,多伦多大学教授。以其在人工神经网络方面的贡献闻名。辛顿是反向传播算法和对比散度算法的发明人之一,也是深度学习的积极推动者,被誉为“深度学习之父”。辛顿因在深度学习方面的贡献与约书亚·本希奥和杨立昆一同被授予了2018年的图灵奖。