亚马逊创新大会AWS Re:INVENT 推出4个重磅AI工具
导读:在今天的创新大会AWS Re:INVENT上,亚马逊云服务AWS的CEO,Andy Jassy向4万多个到场观众介绍了这一整套加速机器学习流程的托管服务,SageMaker。以及推出4个重磅AI工具,视频定向追踪工具Amazon Rekognition Video tool,音频转文本Amazon Transcribe,情绪理解Amazon Comprehend,语言翻译Amazon Translate。
机器学习现在已经在多个领域爆发出惊人的能量,企业通过获取有效的用户数据,可以高效锁定用户的需求,针对性地提供服务,营收利润的拉升效果立竿见影。
但对于大多数急着上车的企业来说,自身业务结合人工智能技术最难的地方在于,没有办法迅速找到资深的AI专家来分析业务链,并搭建相应的机器学习模型解决核心问题,提升生产或者服务环节的效率。
亚马逊敏锐地捕捉到了这个痛点,在今天的创新大会AWS Re:INVENT上,亚马逊云服务AWS的CEO,Andy Jassy向4万多个到场观众介绍了这一整套加速机器学习流程的托管服务,SageMaker。以及推出4个重磅AI工具,视频定向追踪工具Amazon Rekognition Video tool,音频转文本Amazon Transcribe,情绪理解Amazon Comprehend,语言翻译Amazon Translate。
SageMaker,是专门为想要加码AI技术的企业和开发者量身打造的,端对端的机器学习服务。这个服务可以让数据科学家,开发者,以及机器学习的专家可以快速搭建、训练、托管一定规模的机器学习。
SageMaker的构成:
编码
从零搭建带有虚拟学习环境的Web应用程序,用来数据挖掘清理和处理。
开发者可以在这上面跑常规类型的实例,或者GPU驱动的实例。
模型训练
分布式模型的搭建、训练、验证服务。你可以直接用预装好的监督学习或者无监督学习算法,也可以自己用Docer容器引擎训练一个模型。
这种训练可以数十倍地处理实例,这样搭建模型的速度就超快的。训练的数据从S3(全称Amazon Simple Storage Service)读取,生成的数据也会放进S3。经过模型生成的数据是基于模型的参数的,而不是模型演算出来的代码。这样分开处理,可以更好地用SageMaker来训练用于其他平台的模型,比如那些物联网设备。
模型托管
带HTTPs端点的托管模型的服务,能让开发者的模型拿到实时的演算。这些端点可以缓解流量压力,也可以在多个模型上同时进行A/B测试。同样,开发者可以直接使用内置的SDK搭建这些端点,也可以用Docker镜像来设置你自己的参数。
“自夸一下,我觉得SageMaker端对端服务最强大的地方,是这三部分可以分开独立使用,灵活地补充改进企业现有的机器学习工作流程,”在发布会上,AWS的CEO强调SageMaker的灵活性。“它既提供现成的工具,也可以允许开发者自己搭建。不管哪种选择,这个服务都可以用上最主流的算法。”
△ AWS的CEO,Andy Jassy
预设好的Jupyter Notebook,内置了10种常见的算法,这样就可以解决很多常见机器学习的问题了。如果用户有特殊的需求,还可以自己搭建机器学习的算法框架,比如TensorFlow,MXNet,Caffe等。
然后用户还可以把训练的数据先放在AWS的简易内存服务(Simple Storage Service,简称S3)。SageMaker会把所有数据处理一遍,然后自己搭建一个数据工作流,弹性块储存量,以及其他要素。然后全部处理完之后再把它们拆分开。
这样,开发者们就可以通过优化烘焙后的超参数来精准微调他们模型的表现。
“以往这些工作都是手动操作的,非常的伤神费时,现在有了AWS省心多了,可以同时测多个参数,再用机器学习来优化这个过程。”Jassy说。
一旦模型训练好了之后,开发者可以告诉SageMaker他们想用多少个虚拟机器来试跑这套模型。另外,还可以在SageMaker上做A/B测试,让开发者们直观地看到他们模型在改动了哪个参数后有更好的表现。
SageMaker能解决哪些开发者们关心的问题
收集和准备数据
选择和优化机器学习的算法
搭建和管理训练的环境
训练和调整模型
开始把模型放进生产流程中
推广模型的应用以及随时管理监控
现在这项服务是免费的,不过一旦使用者超过一定的使用限度,就要根据使用频率和地域来收费了。
除了这款AI云服务,亚马逊AWS发布会还推出了4个重磅新工具。
视频定向追踪工具Amazon Rekognition Video
能从多个实时的监控流中识别出特定的人,并持续定向跟踪。这个功能目前已经超过了竞争对手谷歌和微软。
为了配合这套算法,亚马逊今天还推出AI驱动的DeepLens摄像头。根据亚马逊以往硬件席卷市场的表现,可以预见DeepLens很有可能是亚马逊下一款杀手级硬件。
虽然谷歌也在两个月之前推出了一款AI驱动的摄像头Clips,不过谷歌的这款摄像头更多的是服务C端消费者,一旦眼前发生有趣的事情,会自动拍照和摄像。而亚马逊的DeepLens是面向技术开发人员的。
大概是250刀的DeepLens高清摄像机附带了预训练模型,这些模型将使开发人员能够更轻松地开始识别出现在视频流中的文本字符。 另外,开发人员还可以借助AWS的新SageMaker AI服务来训练自己的图像识别模型,然后在相机上运行这些模型。
音频转文本系统Amazon Transcribe system
可以把音频文件中的人类语言直接转成文本
现在网络上的音频内容越来越多,怎么从音频中识别检索提取出特定的信息是个大难题。
亚马逊今天推出的这个革命性的引擎,能够把音频转换成文本,使得音频信息也可以被检索了。
Q:辣音频转文本可以用在哪些场景?
好多地方呀,比如以后煲美剧日剧韩剧可以获得实时字幕,直接就有熟肉看了,不用再辛苦字幕组的小伙伴人肉翻译了。或者想提高客服中心服务质量的企业,可以不用再花大量的时间挨个听电话录音文件了,直接看文字版效率高得多。
不过目前Amazon Transcribe暂时只支持英文和西班牙语。但亚马逊官方说啦,未来几个星期马上就会推出新的版本,到时会支持更多语种的。
情绪理解服务Amazon Comprehend service
能从文本的用词、语境、人物描述中识别出背后的积极或消极情绪。目前来说,也是只支持英语和西班牙语。
首先加的4个功能是,识别语言,名词分类,情绪分析和关键短语提取。这些功能都是为了社交互动功能开发的,响应时间达到百毫秒级别。
Amazon Comprehend目前需要不停地训练,才能提供更好的自然语言处理服务。亚马逊的工程师团队和数据科学家正在不懈努力,扩充和精筛训练的数据,希望以后大家用起来越来越精准。
最后一个是之前6月份预告过的翻译工具Amazon Translate
在两年前收购了Safafa的技术之后,亚马逊终于推出了自己的语言翻译服务。不过,这一项服务比谷歌微软落后了好几年。
该技术是基于神经网络中代表的语言配对模型。
该模型由一个编码和解码两部分组成。编码部分从待翻译语言中读取句子,并创建一个目标语言的表达来匹配指定文本的含义。创建了新的表达后,再交给模型的解码部分,看看生成的表达是不是符合目标语言语料库中的表述习惯,以及语义有没有发生偏差。
同时,为了翻译得尽可能准确又简练,这个模型中还有一个机制,叫Attention mechanism。随时留意被翻译语言文本中的每个单词,并结合上下文语境,判断哪些词是要翻译成目标语言的,哪些是可以扔掉不要的。
亚马逊希望这个翻译工具可以结合其他AWS服务,比如文本转语音的Polly程序; 用于多语言搜索的Elasticsearch工具; Lex聊天工具; 以及通过Amazon Lambda提供的内容本地化服务。
正如CNBC早些时候报道的那样 ,这项新服务很可能是基于亚马逊两年前购买Safafa的技术。 今天的公告证实了这些早期的报告,并将AWS引入了微软和谷歌提供的翻译服务。
据Canalys称,AWS 在第三季度以31.8%的份额领先云基础设施服务市场。 在这个季度,AWS为亚马逊带来了45.8亿美元的收入和超过10亿美元的营业收入 。