twhlw的个人博客分享 http://blog.sciencenet.cn/u/twhlw

博文

两问两答

已有 1805 次阅读 2021-1-4 12:31 |个人分类:2021|系统分类:科研笔记

一问:


您好,最近看书,有个问题的关注点,想和您探讨一下:

按照未来智能调度“人+机”的模式,调度信息系统也将是人机混合,那么,最终系统下达的指令应该是必须人作出,还是机也可发出部分指令。问题在于:如果必须都由人作出,那么也就是智能调度的最后关口增加了一道程序,人的观察/调正整/决策/实施(OODA)的节奏势必放缓;如果机器也可作出,那么采取什么机制保障机器发出的指令符合实际调度需要,更重要的是符合人的伦理观,进而产生的问题就是要不要给机器指令打标签,如果不打标签的话,下级实施实体无法区分,一旦指令错误,将产生灾难性后果;如果打打标签,怎么说服下一级实施实体中的“人”信任该条指令?


一答:


方向性的指令可由人来下,过程性的指令可由机来下;伦方面的人类下,理方面的机器下,伦就是分类的意思。可以通过实现动态打标可以解决这个问题



二问:


我觉得这是一个解决路径。但在落实的过程中,这种解决方法的关键问题就是定义何谓方向性、何谓过程性,事实上很多实际调度情况是不好区分的,事先制定再严格的规则,也无法应对实际所有突发情况,且规则越详细,就越与实际活动中的对抗性、偶然性、随机性相悖。从技术原理看,能在机器学习的过程中解决方向性、过程性的界定问题吗?


二答:


通过人的经验,动态地表征事实与价值之间的转换来实现,或者通过一定量(人或机)的试错机制实现,当然,MuZero的试错机制最好别用在核武器调度方面……





https://blog.sciencenet.cn/blog-40841-1265630.html

上一篇:略聊人机功能力分配
下一篇:通往智能之路
收藏 IP: 123.112.15.*| 热度|

1 杨正瓴

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-16 13:24

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部