1.1.知识表示和知识推理。
1.2.逻辑。
1.3.机器学习。
1.4.自然语言处理。
1.5.搜索。
1.6.规划。
1.7.力学。
1.8.伦理学。
2.1. gofai
2.1.1.很好的老式人工智能。
2.2.好莱坞版的人工智能。
2.2.1.人们梦寐以求使用技术的大多数东西都受到电影、电视节目和书籍中图像的启发。
2.2.2.这种人工智能能够控制机器人管家,理论上获得意识并最终控制**,也可能成为现实生活中的终结者阿诺德施瓦辛格。
2.3.在计算机科学界,早在20世纪90年代,人们就已经放弃了对广义人工智能的研究。
2.4.广义人工智能是我们想要的,我们期望的,我们想象的,这是一个梦想。
3.1.我们真正拥有的,是现实。
3.2.这是纯粹的数学。
3.3.它不像gofai那样令人兴奋,但它非常高效,我们可以用它做很多有趣的事情。
3.4.机器学习是人工智能的一种流行形式,它不是gofai
3.4.1.机器学习是狭义的人工智能。
4.1.计算新闻学。
4.1.1. computational jour nalism
4.2.算法问责制报告。
4.2.1. algorithmic accountability reporting
4.3.一门在数据中挖掘故事并使用数据来讲述故事的学科。
4.4.许多人一遍又一遍地谈论技术的光明未来,却发现数字世界复制了现实世界的不平等。
4.5.人们谈论数字技术的方式与数字技术的实际功能并不同步。
4.6.网络空间这个新的、未知的领域是我们用来让世界变得更美好的东西。
4.7.互联网已成为新的公共领域。
4.7.1.1991年9月,蒂姆·伯纳斯-李(Tim Berners-Lee)在欧洲核子研究中心(CERN)的粒子物理实验室(Particle Physics Laboratory)创立了世界上第一个**。
4.7.2.在线骚扰比以往任何时候都多。
5.1.听说一个案件,写一篇耸人听闻的报道,并呼吁社会关注的旧形式的新闻很快就会过时。
5.2.记者的工作方式是让那些“有权决定”的人对他们的决定负责。
5.3.数据记者。
5.3.1.一种非常新型的记者。
5.3.2.数据记者的工作不是整天采访“大数据科学家”
5.3.3.这是直接从数据中挖掘的故事。
5.4.布鲁萨德。
5.4.1.本书的作者。
5.4.2.布鲁萨德是一个“用数据发现真相”的人。
5.4.3.数据记者布鲁萨德(Brussard)最关心的是追究已经取代人类做出决策的“算法”的责任。
5.4.4.人们过于相信算法。
5.4.5.算法都是人写的,人会犯错,算法也会犯错。
5.4.6.实际上,计算机没有改变任何东西。
5.4.6.1.社会还是这个社会,电脑并没有解决我们的社会问题。
5.4.7.对技术将拯救世界的说法持怀疑态度。
5.4.8.只有当技术解决特定问题时,它才是正确的答案。
6.1.归根结底,你用电脑所做的一切都是数学。
6.1.1.如何同时使用数学和科学来做事是有基本限制的。
6.1.2.您可以做什么以及应该使用技术做什么有一些基本限制。
6.1.3.现在是时候就何时以及为何使用技术做出更好、更深思熟虑的决定了。
6.2.了解技术的边界,就是了解人类的成就和人类岔路口的前沿。
6.2.1.那个前缘更像是悬崖,如果你再往前走一步,那将是非常危险的。
6.3.一些算法将越来越多地用于为人们做出决策。
6.4.有时,您需要编写 ** 来查看这些算法是否合适。
6.5.密切关注技术不佳或数据缺失的情况,并随时收到警报。
6.6.有时候即使机器有问题,我们也会认为是我们自己的问题,不会认为是那些计算机程序中几千行的问题。
6.7.如果有问题,通常是机器有问题。
6.7.1.可能是机器设计得太差或没有经过严格测试。
6.7.2.使用了廉价的硬件。
6.7.3.机器对实际用户如何使用系统存在深刻的误解。
6.8.将计算机技术应用于生活各个方面的集体热情催生了大量劣质技术。
6.8.1.没有人仔细检查并确保每个机构目录中的所有联系信息都准确无误,因此与人们取得联系比以往任何时候都更难。
6.9.当你只有一把锤子时,一切看起来都像钉子。
6.9.1.电脑是我们手中的锤子,是时候停下来了。
6.9.2.不要蒙着眼睛,一头扎进数字未来。
6.10.我们可以学习如何处理技术的下游影响,这样我们就不会在复杂的社会系统中犯无意的错误。
6.11.大胆地对不必要的技术说“不”,这样我们才能生活得更好,联系更紧密,更真正地享受技术带给我们的好处。
7.1. technochauvinism
7.2.自 20 世纪 50 年代以来,数字技术一直是科学和政治世界中非常普遍的一部分,并在 80 年代进入人们的日常生活。
7.3.认为技术是解决所有问题的方法。
7.3.1.技术是一切的答案。
7.4.人们认为,计算机可以将所有问题提炼成数学问题,因此比人类更“客观”或“公正”
7.5.技术沙文主义者的脑海中经常有其他类似的想法。
7.5.1.安·兰德的精英主义。
7.5.2.技术自由主义政治哲学。
7.6.赞扬言论自由,同时对网络骚扰问题视而不见。
7.7.人们相信,如果人类更多地使用计算机并正确使用它们,社会问题就会消失,数字乌托邦就会被创造出来。
7.7.1.事实并非如此。 从来没有一种新技术能够阻止我们摆脱与人性相关的根本问题,而且将来也不太可能出现。
7.8.聪明而善意的人,当他们对使用计算机进行决策的陷阱视而不见,或者狂热地支持使用计算机做任何事情,包括不适合计算机的事情时,他们就会成为技术沙文主义者。
8.1.如果好消息太多,很容易产生不切实际的希望。
8.2.如果不切实际的希望过于强烈,它们很容易成为神话。
8.3.可以预见,在不久的将来不会出现任何人工智能引起的失业。
8.4.许多被认为被人工智能取代的工作根本无法被取代。
8.4.1.我们可能低估了人类的智慧。
8.5.普通大众不仅低估了人类的智能,而且高估了人工智能。
8.5.1.《西部世界》中的机器人与高科技公司现在正在开发的那种人工智能完全不同。
8.5.2.生活 30“书中看到的关于人工智能未来的假设,都只是物理学家的纯理论假设。
8.6.人们过分依赖计算机算法,这反过来又带来了一系列的社会问题。
8.7.现在真正的人工智能实际上应该被称为“人工智能”。
8.8.如果我们想单靠计算技术来解决复杂的社会问题,那么我们所依赖的“人工智能”根本就不是智能的。
8.8.1.计算机不关心自己或你能做什么。
8.8.2.它尽最大努力执行指令,然后等待下一个指令。
8.8.3.它没有意识,也没有灵魂。
2月** 动态激励计划