Tsetlin机器和神经网络之间的功耗差别

日前,英国纽卡斯尔大学的研究人员研发出一种非神经网络硬件,可以显著降低人工智能的功率消耗。
研发团队训练了一个神经网络,让它和另一项tsetlin机器技术,分别从标准mnist数据集识别手写数字。
纽卡斯尔大学高级讲师rishad shafik表示:“即开即用的神经网络让我们每焦耳可以进行不到10万亿次操作。而使用我们设计的第一台tsetlin机器,这个数值能达到65万亿次。这种改进主要来自于简化过的逻辑设计。”
他补充说,在上述数字识别实验中时,一台tsetlin机器“可以识别15个单词,与神经网络识别一个单词所需的能量消耗相同”。
tsetlin机器是一种“学习自动机”(learning automata),它最早是由俄罗斯科学家mikhail tsetlin在20世纪60年代发明的一种机器学习算法。shafik解释说,这种算法的问题在于,在其基本形式中,“学习自动机几乎不可能在硬件上实现,因为有大量的状态需要去适应”。
挪威阿格德大学的ai教授ole-christoffer granmo说,在过去的几年里,他通过将学习自动机与经典的博弈论和布尔代数相结合,找到了一种降低学习自动机复杂性的方法。他将简化版的学习自动机应用到软件中,并以该学科创始人的名字将其命名为“tsetlin机器”(tsetlin machine)。
在granmo的研究基础以及他本人的协助下,纽卡斯尔团队找到了一种能够有效地将tsetlin机器的数据类型和基础算法映射到逻辑门上的方法,并在fpga和定制asic上成功实现,他们采用的的形式不仅适用于训练/学习ai阶段,同时也适用于训练之后,也就是所谓的ai推理阶段。
shafik将tsetlin机器和神经网络之间的功耗差别归结于它们映射到硬件上的方式:神经网络,包括二值神经网络在内,都是算术,它们包含了许多乘法和加法操作,而tsetlin机器硬件不使用算术。他表示:“这纯粹是逻辑上的平行操作。”
纽卡斯尔微系统研究小组组长alex yakovlev,同时也和shafik一样是ai团队的领导者,他表示:“能量效率是人工智能最重要的赋能因素,同样重要的是能够解释ai决策的能力。对于这两方面,我们需要摆脱算术,而我们的tsetlin机器硬件设计正好帮我们解决了这一问题。”
这样的机器能做什么?“任何类型的机器学习都需要训练。”shafik说道,“本质上,它能够做神经网络可以做的任何事情。”


三星LED屏的数字电影放映系统在国内落户了
自制环形变压器,Ring transformers DIY
iPhone4天线门后苹果手机信号并没有提高 iPhone7也不例外
韩国电信推出了韩国首个人工智能大数据平台
木林森预估2019年上半年净利润同比下降17.77%~30.17%
Tsetlin机器和神经网络之间的功耗差别
字符结构知识在车牌识别中的应用
能够兼顾显示和成本的创新LED省电方案介绍
康皱APP源码系统开发
在PC机与MCU的通信接口设计中AT89C5131单片机有什么应用?
安捷伦万用表34401维修案例
微型电机工作原理
曝!荣耀Note 10搭载麒麟970最快6月发布
盘点86智能开关面板一季度行业头号玩家都发布了啥
工业以太网的主要技术及典型结构有哪些
风力发电的工作原理与结构
新型阿尔法狗如何通过自学3天击败李世石旧版?
Maxim 300mm晶圆生产线开始发货
数据库复制的设计和管理
手机电池将暴露键盘输入和网页浏览内容?