Machine learning

来自开放百科 - 灰狐
(版本间的差异)
跳转到: 导航, 搜索
(项目)
(链接)
第133行: 第133行:
 
[[category:machine learning]]
 
[[category:machine learning]]
 
[[category:artificial intelligence]]
 
[[category:artificial intelligence]]
[[category:python]]
 
 
[[category:mathematics]]
 
[[category:mathematics]]
 +
[[category:data science]]
 +
[[category:python]]
 +
[[category:clojure]]

2016年2月29日 (一) 09:27的版本

Wikipedia-35x35.png 您可以在Wikipedia上了解到此条目的英文信息 Machine learning Thanks, Wikipedia.

machine learning 机器学习

机器学习是人工智能研究领域中的一个极其重要的方向。在现今大数据时代的背景下,捕获数据并从中萃取有价值的信息或模式,使得这一过去为分析师与数学家所专属的研究领域越来越为人们瞩目。

机器学习会成为研发未来人工智能的核心技术。人工智能发展的最大问题,是改进机器学习算法。

机器学习已经有了十分广泛的应用,例如:数据挖掘、计算机视觉、自然语言处理、生物特征识别、搜索引擎、医学诊断、检测信用卡欺诈、证券市场分析、DNA序列测序、语音和手写识别、战略游戏和机器人运用。

通常,人们会在三种情况下使用机器学习:

  • 数据挖掘:机器学习可以帮助人们从大型数据库里得到深刻的见解。
  • 统计工程:机器学习可以用来把数据转换成对不确定数据做决定的软件。
  • 人工智能:机器学习可以用来模拟人类的思维,来创造可以看到,听到和理解人的计算机。

目录

新闻

自http://www.infoq.com/feed/MachineLearning加载RSS失败或RSS源被墙

机器学习与GPU

GPU彻底改变计算研究和工程

CUDA 是 NVIDIA 发明的一种并行计算平台和编程模型。它通过利用图形处理器 (GPU) 的处理能力,可大幅提升计算性能。

工业与学术界的数据科学家已将 GPU 用于机器学习以便在各种应用上实现开创性的改进,这些应用包括图像分类、视频分析、语音识别以及自然语言处理等等。 尤其是深度学习,人们在这一领域中一直进行大力投资和研究。深度学习是利用复杂的多级「深度」神经网络来打造一些系统,这些系统能够从海量的未标记训练数据中进行特征检测。

虽然机器学习已经有数十年的历史,但是两个较为新近的趋势促进了机器学习的广泛应用: 海量训练数据的出现以及 GPU 计算所提供的强大而高效的并行计算。 人们利用 GPU 来训练这些深度神经网络,所使用的训练集大得多,所耗费的时间大幅缩短,占用的数据中心基础设施也少得多。 GPU 还被用于运行这些机器学习训练模型,以便在云端进行分类和预测,从而在耗费功率更低、占用基础设施更少的情况下能够支持远比从前更大的数据量和吞吐量。

将 GPU 加速器用于机器学习的早期用户包括诸多顶级规模的网络和社交媒体公司,另外还有数据科学和机器学习领域中一流的研究机构。 与单纯使用 CPU 的做法相比,GPU 具有数以千计的计算核心、可实现 10-100 倍应用吞吐量,因此 GPU 已经成为数据科学家处理大数据的首选处理器。

项目

文档

图书

课程

讲义

机器学习的PPT讲义,包括基于符号和逻辑表示的概念学习,决策树,计算学习,规则学习,基于解释的学习等内容。

讲义下载:

视频

图集

链接

分享您的观点
个人工具
名字空间

变换
操作
导航
工具箱