资讯 加入人工智能大战 三星正式发布AI助手Bixby 在AI助手这个赛道,竞争早已白热化。苹果有Siri,微软有小娜,谷歌有谷歌助理,如今,三星电子也坐不住了,果断亮出了自己的底牌——新款AI助手Bixby。 几个月来,关于这款助手名字的猜测终于尘埃落定。三星在一份官方新闻稿中确认了Bixby这个
在AI助手这个赛道,竞争早已白热化。苹果有Siri,微软有小娜,谷歌有谷歌助理,如今,三星电子也坐不住了,果断亮出了自己的底牌——新款AI助手Bixby。
几个月来,关于这款助手名字的猜测终于尘埃落定。三星在一份官方新闻稿中确认了Bixby这个名字,并信心满满地表示,Bixby与市面上已有的那些语音助手有着“根本性不同”。
长期稳定更新的攒劲资源: >>>点此立即查看<<<

那么,不同在哪里呢?根据三星的说法,关键在于Bixby能够支持“几乎”所有原本需要通过触摸屏完成的应用操作。这个设计思路其实不难理解,毕竟,想让设备精准分辨哪些是语音指令,本身就不是件容易事。不过,三星强调它支持“几乎”所有命令,这在实际应用中可能还是会带来一些理解上的挑战。
三星进一步解释,Bixby支持的应用会更注重语境理解。这意味着它能更好地揣摩用户的真实意图,即便用户给出的指令语序不完全正确,甚至不够完整,Bixby也能尝试执行。更有趣的是,在必要的时候,它甚至会主动“提示用户提供更多信息”。这种能力,被三星称为“认知容忍”(cognitive tolerance)。
一切答案都将在3月29日揭晓,届时三星将发布新一代旗舰手机。不出意外的话,主角应该就是传闻已久的Galaxy S8。早在一月份就有消息指出,三星会在S8的机身上为Bixby设置一个专用物理按键。如今,三星官方证实了这一设计,目的很明确:让用户在想召唤Bixby时,能以最快的速度启动语音服务。
深度机器学习近来风头无两,从玩游戏到人脸识别,其展现出的广泛能力令人惊叹。更关键的是,它们具备自主学习能力,这也引发了一些关于未来的忧虑。然而,一个不争的事实是,目前这些系统的学习效率,恐怕还不及人类的十分之一。
不过,局面可能即将改变。谷歌旗下位于英国的DeepMind公司,近日宣布开发出一款“超速人工智能”。这款AI的学习效率,据称已经逼近人类水平。
DeepMind团队表示,与以往的AI模型相比,这套新系统不仅能吸收新知识,更能快速应用新的经验。其秘诀在于一种名为“深度学习”的技术,即利用多层神经网络来定位数据中的模式。一旦某一层确认了某种模式,信息就会传递到下一层,如此循环往复,直到完成所有信息的处理。
这套系统的独特之处在于,它能基于不同的变量(比如神经网络各层之间的连接强度)进行差异化学习。要知道,在拥有众多层次的深度神经网络中,某一层的微小变化,都可能像多米诺骨&牌一样,极大地影响信息在其他层的传递和学习方式,导致学习过程异常漫长。
对此,Google DeepMind的研究员亚历山大·普利特则尔(Alexander Pritzel)及其同事似乎找到了突破口。他们提出的解决方案,被称为“神经情景控制(neural episodic control)”。
3月19日,东京。第10届UEC杯世界电脑围棋大会决赛落下帷幕。来自腾讯AI Lab(人工智能实验室)的围棋人工智能程序“绝艺”(Fine Art),首次参赛便锋芒毕露,接连战胜了日本的DeepZenGo、法国的Crazy Stone等强劲对手,最终捧得冠军奖杯。
UEC杯始于2007年的日本,堪称全球最传统、最权威的计算机围棋赛事。它每年汇聚各国顶尖的AI程序于东京,旨在推动相关学术与科技的交流。本届比赛堪称历届之最,吸引了来自中国、日本、韩国、美国、法国等国家的30个围棋AI参赛,整体竞技水平达到了新的高度。
“绝艺”之名,源于唐朝诗人杜牧的诗句“绝艺如君天下少,闲人似我世间无”。这款由腾讯AI Lab自主研发的程序,核心涵盖了深度学习和强化学习这两大当前最热门的人工智能研究方向。它的“修炼”主要依赖于两大途径:研习海量的人类棋谱数据库,以及进行海量的机器自我对弈。在算法层面,“绝艺”基于策略网络与价值网络双核心架构,并通过对价值网络精度的大幅创新性提升,显著增强了其大局观和整体表现。
汽车工业的智能化浪潮中,又一项重磅合作诞生。在近日的一场主题演讲中,博世CEO沃尔克马尔·邓纳尔正式宣布,与芯片巨头英伟达(NVIDIA)携手,共同开发一套人工智能自动驾驶系统。与此同时,一款名为Xa vier的超级芯片也一同亮相。
据悉,双方的合作将聚焦于研发一款人工智能自动驾驶车用计算机。这款计算机将深度融合英伟达在深度学习领域的先进软硬件技术,目标是为车辆赋能,让它们能够学会并掌握自动驾驶等复杂操作。
博世的这套人工智能汽车级计算机系统,其基石正是英伟达下一代的DRIVE PX技术以及那颗AI车用超级芯片——Xa vier。值得关注的是,Xa vier被称为全球首款单芯片处理器,其强大的算力足以应对自动驾驶车辆所需面临的各类繁重任务:例如,运行深度神经网络以感知周边环境、理解3D场景、结合高清地图进行精准定位、预判其他交通参与者的行为和位置,并最终计算出安全的行驶路径和控制车辆动态。
超分辨率技术,简单说,就是从低分辨率的图像中重建出高分辨率图像。这项技术在监控安防、卫星遥感、医学影像等领域,价值不言而喻。通常,超分辨率可以分为两大类:基于多张低分辨率图像的重建,以及基于单张低分辨率图像的重建。而深度学习目前主要发力的,正是后者——单图像超分辨率。
单图像超分辨率本质上是一个“逆问题”。对于一张给定的低分辨率图像,理论上可能存在无数张不同的高分辨率图像与其对应。因此,在求解时,传统方法往往会引入一个“先验信息”作为约束条件。这个先验信息,通常是从大量成对出现的低-高分辨率图像样本中学到的。
深度学习则提供了一种更直接的思路:它通过构建神经网络,尝试直接从低分辨率图像到高分辨率图像,学习一个端到端的映射函数。这样一来,就绕开了复杂的手工特征设计和先验模型构建。
接下来,我们不妨看看几个基于深度学习的、较新的超分辨率方法,例如SRCNN、DRCN、ESPCN、VESPCN以及SRGAN等,它们各自都有独特的设计理念和优势。
踏入深度学习领域,你很快就会明白一个道理:这是一个对计算资源极度渴求的领域。而GPU的选择,往往直接决定了你实验的生死时速。没有GPU,一个实验跑上几个月是家常便饭,或者调参一整天,结果发现走错了方向;而一块性能强劲、运行稳定的GPU,能让你在深度学习网络中快速迭代,在几天、几小时甚至几分钟内看到结果,而不是以月、以天为单位苦苦等待。
所以说,在购买GPU时做出正确的选择,绝对是关键一步。那么,面对市场上琳琅满目的产品,如何才能挑中那块“梦中情卡”呢?这正是本篇要探讨的核心。
对于初学者而言,拥有一块快速的GPU尤其重要。它能让你迅速获得实践反馈,从而快速积累起将深度学习应用于新问题所需的专业知识。如果没有这种即时反馈,从错误中学习的过程会被无限拉长,很容易让人感到挫败甚至放弃。以亲身经验为例,正是在GPU的助力下,才能快速在一系列Kaggle竞赛中应用深度学习,并曾在Partlysunny witha Chance of Hashtags竞赛中夺得第二名。那场比赛要求通过推文预测气象评分,当时使用的双层深度神经网络(带有两个ReLU和Dropout正则化),几乎耗尽了6G的GPU显存,足见其对资源的依赖。
在公众的普遍认知里,艾伦·图灵提出的“模仿游戏”——即一台机器试图让人类测试者相信它是人而非机器——长久以来被视为检验人工智能的“终极试金石”。
然而,时过境迁。图灵测试虽未完全过时,但如今那些能够通过测试的AI,很多时候依赖的并非是真正的智能,而更像是一种高级的“欺骗”技巧。不少人工智能专家指出,现在是时候用一系列更全面、更严苛的评估方法来取代单一的图灵测试了。
真正智能的机器应该是什么样?它或许需要能够理解模棱两可的日常语言,能够按照说明书把一堆零件组装成家具,能够通过人类小学四年级的科学考试,甚至完成更多更复杂的任务。这些对人类而言看似简单的事情,对机器却困难重重。这恰恰证明,抛开所有炒作和光环,达到人类水准的通用人工智能,仍然前路漫漫。
随着人工智能技术不断渗透各行各业,“人工智能+”的概念应运而生,其内涵与“互联网+”类似,旨在将AI赋能于生活的方方面面。于是,我们看到了人工智能+汽车、人工智能+教育。作为国内AI领域的先行者,百度甚至提出了人工智能+寻亲,利用技术助力寻找走失儿童。这些都标志着AI技术正逐步走向成熟和实用。
而在所有被AI变革的领域中,医疗健康无疑是一个极具分量和潜力的方向。目前,已经出现了不少引人瞩目的探索:
要理解TensorFlow,首先得抓住它的核心领域模型——计算图。本文就将围绕计算图,梳理其基本构造原理。
我们将从三个基础层面来剖析TensorFlow的图模块架构:边(Edge)、节点(Node)以及图(Graph)本身。
边是连接计算图的纽带,它持有前驱节点和后继节点的信息,是实现计算图前向遍历和后向遍历的关键衔接点。节点则可以拥有零条或多条输入/输出边,在内部分别用in_edges和out_edges表示。此外,节点还持有NodeDef和OpDef。其中,NodeDef包含了设备分配信息以及该操作(OP)的属性值集合;OpDef则保存了OP的元数据。至于计算图,它的领域模型非常直观:就是节点和边的集合。整个计算图是一个有向无环图,其执行过程会按照DAG的拓扑排序依次启动各个OP的运算。特别地,当图中存在多个入度为0的节点(即没有前置依赖的节点)时,TensorFlow运行时能够实现并发执行,同时运转多个OP,从而显著提升整体的计算效率。
现在我们将继续出发,带上最初开启这个主题时的终极疑惑 —— 你敢跟着机器学习投资吗?那个由训练数据也就是历史日志学得的模型,真的能在未来的预测中表现的一样好吗?
从这个系列文章的第四篇开始,我们正式踏上了探讨机器学习可行性的旅程。在上一篇文章中,我们直面了“天下没有白吃的午餐”定理的挑战,厘清了它的前提假设,也最终明确:在面对具体的现实问题时,选用与问题相匹配的学习算法,完全有可能取得出色的效果。
如果说上一篇还是在努力拨开“No Free Lunch”的理论迷雾,那么这一篇,我们将真正深入到学习可行性的定量分析和核心讨论之中。这部分内容,隶属于机器学习的一个重要研究方向——计算学习理论。


侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述