摘要:人工智能尤其是機器人在各個領域從事越來越多的決策,逐步從被動工具變成人類的者,這引發了社會各界對人工智能倫理的思考和擔憂,需要建立新的倫理范式,將人類社會的倫理規范延伸到智能機器。近年來該研究取得了較大發展,豐富了已有研究內容,提升了對人工智能倫理研究的指導能力。本文全面回顧了國內外有關人工智能倫理的研究進展,在文獻計量分析的基礎上,發現"傳統派"、"謹慎派"和"樂觀派"三種對人工智能的不同態度引發了"人-機"關系的倫理沖突,從人工智能道德哲學、道德算法、設計倫理和社會倫理四個視角系統性地評述了人工智能倫理的研究成果,國家和企業(組織)分別從戰略和社會責任的層面上強調對人工智能倫理的態度,提出了更加系統、完善的人工智能倫理的理論框架,有助于從理論和實踐層面系統地把握已有研究成果。未來需要在全球情景條件的倫理體系建設、倫理對技術的前瞻性、倫理角色塑造和科學發展的倫理觀上做進一步研究。
注:因版權方要求,不能公開全文,如需全文,請咨詢雜志社