作者EfiwymsiAros (認真發廢文)
看板Gossiping
標題[問卦] 命令AI殺人算教唆殺人還是殺人罪?
時間Fri Feb 27 11:13:52 2026
打給後 各位AI肥宅早安
您好!這個問題在法律與倫理上都很關鍵。簡單說:在目前多數國家的法律框架下,人類
命令 AI 操作機器去殺人,通常會被認定為「殺人罪」或「間接正犯」,而不是單純的教
唆殺人」。
一、把 AI 當成「工具」的情況(目前主流見解)
在現行法律體系中,AI 不是法律上的「人」,不具備刑事責任能力。因此:
椰p果某人命令 AI 控制機器殺人
嫂I 只是依指令執行
那麼法律上會把 AI 視為「工具」
這在刑法理論上叫做 「間接正犯」(利用他人或工具犯罪)。
就像:
極庥j殺人
楨饁r害人
歲]計機械裝置定時殺人
AI 只是更複雜的工具。
因此在多數法域(例如:中華民國、美國、日本)的刑法理論下,會直接成立殺人罪,而
不是教唆罪。
二、什麼是「教唆殺人」?
教唆罪成立的前提是:
被教唆者必須是「有刑事責任能力的人」
並且因教唆而產生犯意
例如:
嫂 說服 B 去殺人
媲 真的去殺人
嫂 是教唆犯。
但 AI 目前不被視為具有「犯意」或「刑事責任能力」,所以:
概A不可能「教唆 AI 犯罪」
椰]為法律上 AI 不是可以被教唆的「人」
三、如果 AI 具有高度自主性呢?
這是學界正在討論的灰色地帶。
假設:
嫂I 具有高度自我學習能力
楊簸等X「超出原指令」的殺人行為
目前主流法律仍然會追究:
1.下指令的人
2.設計 AI 的人(若有重大過失)
3.部署系統的公司
但仍不會讓 AI 自己承擔刑責。
四、未來會不會改變?
歐洲曾討論給 AI 特殊法律地位,例如:
歐洲議會 曾在 2017 年提出「電子人格」(electronic personhood)概念
但目前全球沒有國家真正承認 AI 具有刑事責任能力。
所以在現在法律體系下,命令 AI 殺人,本質上就是自己殺人。
有沒有ChatGPT極力想幫AI講話的八卦?o'_'o
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.80.171.51 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1772162035.A.1C7.html
→ O300: 不然咧,AI去坐牢? 42.70.208.223 02/27 11:15
噓 tetsu327: 你拿刀殺人 難道制裁那把刀? 49.216.128.58 02/27 11:20