《人工智能时代》读后感_1700字_读后感大全

《人工智能时代》读后感1700字

作者Jerry Kaplan 来自SAIL (Stanford A. I. Lab)

https://en.wikipedia.org/wiki/Jerry_Kaplan

书名 Human Need Not Apply, 不知怎么翻成的 人工智能时代.

(颇为自恋的译者在书末的 译后记 看着也颇为作呕, 为此书减色不少.)

..

.

~

[ 领域 ]

1 synthetic intelligence:

机器如何在处理信息上做的更好? Kaplan将前沿领域(machine learning, neural network, big data, recog-sis, genetic algorithm, etc.)统称为SI, synthetic intelligence.

它与传统的人类所创造的工具区别在于: 1它不是通过编程得到的 (not pre-desgined by human.), 2其结果不可预知.

2 sensors 与 actualators (实现者) 的结合:

两者的结合却非总是天然必要. 结合的目标是在开放环境中独立处理一些特定问题(比如车辆稳定, 匪徒发现). 它与传统自动化的区别在于, 前者往往是在某个特定甚至是设定的环境中(比如工厂)执行重复性单一任务(比如生产剃须刀), 后者面对的开放和多变的情境(比如救灾, 探险, 清洁, 安防, etc.).

..

.

[ ethics ]

Kaplan在序言中就抛出几个将来会出现的 ethical problems:

~ 机器人是否该为主人说谎?

~ 机器人可否在我的要求下, 给我女儿上酒?

~ 遛狗机器人因为 不能践踏草坪 而没能阻止孩子被狗咬伤

~ 我是否愿意买一辆, 会为了一校车小孩子而牺牲我 的自动驾驶汽车?

{我的理解是, 任何工具都有其效能的边界. 对机器人 不能如我所愿 的失望和愤怒, 不该超过 一枚durex没能阻挡那3%的意外发生.

工具的使用者, 既是工具的受益者, 也是责任承担者, 在使用工具以前了解其边界和危害是应有之义.

这对于一把剔骨尖刀, 一枚durex, 一次杠杆交易, 一个金融创新如衍生品, 一辆无人驾驶汽车, 一个基于全个人数据的虚拟助手, 一个机器人保姆或医生, 等, 都是适用的.}

作者将这个问题称作: 资产问题 (the Asset Issue).

提到,Karl Marx坚信, 资本与劳动提供者的矛盾是永恒的, 并预见到 自动化将用资本取代劳动力, 但他无法预见到 SI将用资本取代头脑.

未来的矛盾来自 资产与人.

{同样, 如George Soros所说, 两者的矛盾, 也是 Capitalism 与 Democracy 的相悖 — 两者虽然现在在许多国家共处, 而反思人类历史, 两者从来就不是同时产生, 且并行不悖的 — 两者压根就是完全不同的东西! }

资产与人的相悖, 其具象化就是 公司 与 民主国家 利益的相悖.

..

.

[ heuristics 启发法]

expert system是 knowledge engineers 把专家们(比如象棋大师或医生)能够总结并表述的经验, 变成程序. 这显然是人类智慧的一步, 但现实是, 它们很少成功解决真实问题.

exhaustion(穷举) 的问题是 combination explosion(组合爆炸), 即在无穷可能性面前计算力的永恒不足.

而 heuristics关注的是, 将问题简化到 可管理的经验法则.

1用计算能力尽可能多寻找答案, 且2利用规律/法则绕过不必要的搜索 — 称 pruning the search space.

neural network 只是个名字. 其与生物脑的神经体系是否相似不是重点.

它是一个由众多节点构成的多层次网络, 节点的权重是根据一次次 训练 动态调整的, 直至收敛(convergence).

也许, 最终智能 i = es + ml + x

(es: expert system, ml: machine learning, x: surprise!)

<分布>

粗分, 完成一件任务需要要素包括: 1能源(资源), 2认知(感应, 数据), 3策略(分析, 规划, 方案, 预测), 4实现(手段)

而作为一个独立的生物体(比如猩猩), 这4要素 碰巧 都聚在了一个硬件里 — 然而在其它情况中, 并非 必须 如此.

..

.

[moral]

自古以来, 人们对 道德 标准应用的判断有二: 1有判断的能力 2有行动的选择.

似乎道德的施加对象应该是 自主的人. 而若是某甲的惊马, 踩踏了Bob的庄稼, 那么显然马主某甲是有责的.

同样, 公司也是. (比如发生泄漏事故的BP.)

那么, SI(synthetic intelligence) 如何?

..

.

[取代人类]

revenue per employee, 衡量公司的劳动力效率的标准计量方式.

Amazon的RPE是0.86MM$, Walmart是.21MM$.

机器或计算机与人类, 往往擅长彼此不擅长的工作.

列出了若干可能被自动化取代的工作.

提到, 一些自动化(比如摘草莓机器人) 的(单位时间)工作效率不一定要高于人类, 但它们可以 在夜间工作!

此外还有, 仓储管理, 撒农药, 高速公路货运司机, 法律文件起草, 医生, etc.

特别提到, Stanford 居然开了一门 法律信息学 课程, 有法学专家和信息专家共同研发.

{至于医疗, Kaplan认为其科学而非艺术 的本质, 让医生的工作处于极大风险中. 愚不以为然.}

..

.

[ 职业培训抵押贷款 ]

引发08年金融危机的导火索是次贷危机 — 虽然其根源是货币和信用泡沫 — 是针对房贷的消费信贷泡沫.

不难看出, 相比国家或公司的借债, 消费类贷款看似 颇有甜头 却是因为其消费本质而不可持续的, 最终都会破灭.

而Kaplan提出的针对职业培训的 抵押贷款 计划, 则颇有新意:

首先, 它解决了出资意愿的问题 — 只有受训者最有提高自己技能的意愿.

其次, 它通过金融化解决了受训者的资源缺乏和双方的时间风险等问题.

因而总体看这个方案是可持续的.

{有趣的是, 很多投资家们(Kaplan, Taleb, etc.)对教育(尤其是公立教育) 普遍抱有偏见. 他们似乎都忽略了教育过程 除了技能培训和找工作之外的意义 — 比如, 一个综合解决问题的能力, 和思维框架, 还有社交能力, etc. }

..

.

~

Kaplan娓娓道来的文风还是很舒服的, 虽然新闻报道的 找典型, 讲故事 的风格浓郁 — 不掩此书登畅销书榜之志.

无论你是否同意其的观点, 你至少不会怀疑他的态度 — 一些次要论据时都会提供详细的出处.

整体而言, Kaplan对未来人与AI的关系还是相当乐观的, 认为:

在短期, 因AI造成的巨大贫富差距可以通过他的一系列建议(如 技能培训抵押贷款 等)得到解决.

而在远期, AI就算超越并摆脱了人类, 与人的关系也不是 奴役, 而是 圈养 — 更不是 屠戮.

嗨, 算啦.

有些事, 过程比结果更重要 — 就像足球.

~

.

[饭]

最佳范例原创文章,作者:最佳范例网,如若转载,请注明出处:https://www.jiujiushou.com/post/20454.html