人工智能的四个研究途径?
目前研究过程中通常采用两条途径,一条是由内到外,从揭示人脑的结构和人类智能的奥妙入手,目的是搞清楚大脑处理信息的过程,目标是创立信息处理的智能理论。
另一条是由外到内,从应用计算机模拟人的智能活动入手,目标是研究开发智能机器或系统,力求达到与人的智能活动相类似的效果。总之,人工智能的最终目标是要搞清人工智能的有关原理,使计算机具有智慧更加聪明、更加有用
快包
智能产品开发,外包服务平台
演绎、推理和解决问题早期的人工智能研究人员直接模仿人类进行逐步的推理,就像是玩棋盘游戏或进行逻辑推理时人类的思考模式。到了1980和1990年代,利用机率和经济学上的概念,人工智能研究还发展了非常成功的方法处理不确定或不完整的资讯。
对于困难的问题,有可能需要大量的运算资源,也就是发生了“可能组合爆增”:当问题超过一定的规模时,电脑会需要天文数量级的记忆体或是运算时间。寻找更有效的算法是优先的人工智能研究项目。
人工智能的四大关键原则?
人工智能的发展,需要遵守的四个AI伦理原则:
第一个原则是安全可控是最高原则;
第二个是促进人类平等地获得技术和能力是创新愿景;
第三个则是人工智能的存在价值不是超越人、代替人,而是教人学习和成长;
第四个是人工智能的终极理想应该是带给我们更多的自由和可能。
第一,技术人员研发的产品必须是安全的可以控制的,不能危害他人危害社会。
第二,产品研发展望未来的基本愿望应该是,促进人类更加公平的获得一些技术以及知识。
第三,这项技术的研发目的应该是帮助人类成长和进步,不应该让机器替代我们人类。
第四,这项技术的最终结果应该是为人类提供更多的可能和机遇,促进人类发展。
这四项原则是:合理利用;可解释;保护隐私;安全且可靠。
1.解释原则(Explanation)
解释原则要求AI系统为所有输出提供相应证据和理由,但不要求证据是正确的、信息丰富的或可理解的,只要表明AI系统能够提供解释即可。解释原则不强加任何的质量评价指标。
2.有意义原则(Meaningful)
有意义原则要求AI系统提供单个用户可理解的解释。也就说,只要一个用户可以理解AI系统所提供的解释即符合该原则,不要求解释为所有用户所理解。有意义原则允许基于不同用户群体或个人的定制化和动态解释。不同用户群体对AI系统的解释需求不同,如系统开发者与系统使用者需求不同,律师和陪审团需求不同。此外,每个人知识、经验、心理等方面存在差异导致其对AI解释的理解不同。
3.解释准确性原则(Explanation Accuracy)
解释准确性原则要求相应解释正确反映AI系统产生输出的过程,不要求AI系统做出的判断准确。与有意义原则类似,解释准确性原则也允许用户差异性。有的用户(如专家)需要解释产生输出的算法细节,有的用户可能仅需要关键问题的解释。对算法细节要求的差异性恰恰反映了解释准确性原则与有意义原则的不同,详细解释可以加强准确性但却牺牲了部分用户的理解性。基于不同的用户群体定制化解释准确性测量指标。AI系统可以提供多类型、多层次的解释,因此解释准确性测量指标不是通用或绝对的。
4.知识局限性原则(Knowledge Limits)
知识局限性原则要求AI系统仅可以在其所设定的条件下运行,以保证系统输出。知识局限性原则要求AI系统能识别出未经设计或批准以及响应错误的情况。知识局限性原则可以防止错误、危险、不公正的决策和输出,从而增加AI系统的可信度。AI系统有两类知识局限性,一是所需判断不属于AI系统本身设定,如鸟分类AI系统无法分类苹果,二是所需判断超越内部置信度阈值,如鸟分类AI系统无法对模糊图像上的鸟类进行归类。
到此,以上就是小编对于人工智能时代怎么开展的问题就介绍到这了,希望介绍关于人工智能时代怎么开展的2点解答对大家有用。