AI 的原理与原则
从本质上讲,人工智能(AI)旨在使机器具备人类智能的素质,并在某些领域超越人类的能力。专注于智能的AI由一组技术组成,这些技术不仅可以使人类执行“内部”信息处理,还实现交互。到目前为止,机器感知、学习和做事的能力使AI可以应用于人类世界的许多活动中。
正如人类智能创造无限可能一样,完整的AI范围是无限的。一般来说,人工智能的研究范围从机器学习算法和大数据管理到机器人技术和神经科学,而且范围还在不断扩大。
关于AI的讨论通常强调机器的预测能力——最初是基于上世纪中叶的专家规则的,如今已演变为机器自我学习,并借助复合技术以多种方式应用。
基于规则的AI技术:最早的AI出现于1950年代。这就是所谓的“专家系统”,它使机器可以捕获专业领域中人类专家的知识。系统以“ if-Else”语句的形式编码。
自我学习的AI技术(机器学习):AI的重要子集,通过自动从可用数据中提取知识,机器可以自行“学习”规则,而无需给出指令。其计算过程是:使用学习的“算法”来“训练”模型,以提高特定工作上的模型性能。
监督学习:从可用的带标签的数据输入和结果中找到模式,以便对新数据做出预测。
非监督学习:从具有相似特征的数据集和组点中识别不同特征。
半监督学习:使用一些标记数据和大量未标记数据来训练模型。
深度学习:机器学习的一个分支,它模仿人脑中神经元层的活动,以学习识别数据中的复杂模式。 “深层”是指大量的神经网络层。
强化学习:机器学习的一个领域,机器可以使用奖励和惩罚的指导来学习,这些奖励和惩罚是机器为实现目标而制定的一系列决策的基础。它需要与外部世界进行反复互动,而不是仅接受输入和答案来构建模型。
迁移学习:机器学习的一个研究领域,着重于基于现有知识快速适应新情况,无需重新使用大量数据训练的系统。
人工智能技术
从原理到应用
过去十年中AI的显著发展主要归因于机器学习的发展,尤其是深度学习。借助物理学、生物学、神经科学和计算机科学等领域研究人员的贡献,在这个日益数字化的世界中,算法、计算能力和大数据的发展使AI得以大规模实现。
算法原理设计在早期就取得了进展,而过去十年中AI芯片和硬件的进步解决了算力问题。这些新开发的芯片经过专门设计,实现了对从数据中心、云系统到边缘的海量数据运行AI算法所需的成本、速度和能耗的优化。
同时,AI教程,框架和工具价格越来越低,种类越来越多。即使不具备高水平的技能或专业知识,越来越多的企业也可以使用AI来完成基本任务。
尽管早期的算法原理和计算的进步与科研人员所做的工作更多联系在一起,但如果不从现实世界业务运营中收集的无数数据集,并进行持续的训练和测试,就无法实现所需的准确性和生成各种新用例。
因此,结合了机器学习和感知/交互功能的技术是业界探索的关键领域。此类技术支持机器更好地了解物理环境和人类环境,由此渗透到日常任务中并重塑人类环境。
CV(计算机视觉):AI的一个领域,训练计算机通过使用数字图像和深度学习模型来识别,解释和理解视觉世界。
NLP(自然语言处理):现代NLP基于机器学习,使机器能够分析、理解和生成文本数据。
ADAS(高级驾驶员辅助系统):传统ADAS技术可以检测物体,做出基本分类,警告危险道路状况的驾驶员,以及在某些情况下使车辆减速或停车。深度学习系统加持下的先进ADAS系统使自动驾驶汽车成为可能。
SLAM(同步本地化和地图绘制):生成创建地图,并在生成的地图中导航和追踪机器人的过程。深度学习增强了机器分析图像和提升的SLAM的能力。
RPA(机器人流程自动化):一种执行重复性手动任务的业务流程自动化形式。
从应用到商业化
这些多学科技术的实验场与现实世界、商业活动密切相关。在这些商业活动中,通过部署AI可以创建或升级许多用例。
正如早期的PoC(概念验证)所表明的那样,其中一些技术已被证明在商业世界中已经相当成熟。
人工智能良性循环
例如,在标志性的ImageNet图像识别挑战中,AI在2017年的图像识别中实现2.3%的错误率,早在2015年就低于人类5%的错误。准确率证明了AI在许多类型的任务中都能正常运行。
而且,如AI的良性循环所表明的,产品用例,数据收集和算法增强之间存在协同作用。产品与用户的交互将更多的用户数据带到产品研发,从而提高了算法的准确性和边缘端算力提升的机会。业务运营的经验将有助于发现盲点并减少数据隔离。嵌入了更智能AI功能的产品可以促进更好的数据共享,并激发新用例的产生。
全球范围内的大公司采用AI的意识正在提高。根据Gartner 2019年CIO的调查结果,在2018年至2019年之间,全球部署AI的企业比例从4%增长到14%;另有23%的企业将在未来12个月内部署AI。