勵志

勵志人生知識庫

機器人三原則

機器人三原則(也稱為阿西莫夫機器人三原則)是由科幻小說作家艾薩克·阿西莫夫在1950年提出的,旨在為機器人設計行為規範和道德準則。這些原則是:

機器人不得傷害人類,或看到人類受到傷害而袖手旁觀。

機器人必須服從人類的命令,除非這條命令與第一條原則相矛盾。

機器人在不違反前兩條原則的情況下,必須保護自己。

這些原則廣泛套用於機器人技術和人工智慧領域,以確保機器人與人類共存時的安全性。