勵志

勵志人生知識庫

三大定律人工智慧

三大定律人工智慧分別是:第一定律,機器人不得傷害人類,或者因不作為而讓人類受到傷害;第二定律,機器人必須服從人類給它的命令,除非這些命令與第一定律相衝突;第三定律,機器人必須保護自己的存在,只要這種保護不與第一定律或第二定律相衝突。

這些定律最初由科幻小說家阿西莫夫在他的作品中提出,旨在為機器人設定倫理和安全指南。這些定律在很大程度上限制了人工智慧的使用場景,並保護了人類在使用AI時的安全。