英國司法部正在悄然開發一個人工智慧系統,這個系統感覺就像是科幻驚悚片《少數派報告》中的情節——一個旨在預測誰可能會在未犯錯之前就犯下謀殺罪的程式。
根據監察組織Statewatch週二發布的信息,該系統使用從警方和司法數據庫中抓取的敏感個人數據,來標記可能成為殺手的個人。據報導,英國的這個程式並不依賴於漂浮在池中的青少年靈媒,而是依賴人工智慧來分析和描述公民,抓取大量數據,包括心理健康記錄、成癮歷史、自我傷害報告、自殺企圖和殘疾狀況。
“我們獲得的一份文件顯示,超過100,000人的數據由(大曼徹斯特警方)共享以開發該工具,”Statewatch在社交媒體上透露。“這些數據來自多個以制度性種族主義和偏見而聞名的警方和司法數據庫,”該監察組織辯稱。
Statewatch是一個成立於1991年的非營利組織,旨在監察歐盟國家及公民自由的發展。它建立了一個由來自18個國家的調查記者、律師、研究人員和學者組成的成員和貢獻者網絡。該組織表示,這些文件是通過信息自由請求獲得的。
“司法部試圖建立這一謀殺預測系統,是政府意圖開發所謂犯罪‘預測’系統的最新令人不安和反烏托邦的例子,”Statewatch的研究員索非亞·萊爾在一份聲明中表示。“司法部必須立即停止進一步開發這一謀殺預測工具。”
“政府不應該將資金投入到開發不可靠和種族主義的人工智慧及算法中,而應投資於真正支持的福利服務。在削減福利的同時投資於技術解決方案的‘快速修復’,只會進一步破壞人們的安全和福祉,”萊爾說。
Statewatch的揭露勾勒出所收集數據的廣度,其中包括嫌疑人、受害者、目擊者、失踪人員和有保護擔憂的個體的信息。一份文件特別指出,“健康數據”被認為具有“顯著的預測能力”,可用於識別潛在的謀殺者。
當然,有關這一人工智慧工具的消息迅速傳開,並在專家中引發了重大批評。商業顧問和編輯埃米爾·普羅塔林斯基寫道,“政府需要停止從好萊塢獲取靈感”,而官方賬號Spoken Injustice則警告說,“如果沒有真正的監督,人工智慧不會解決不公,而會使其變得更糟。”
即使是人工智慧似乎也知道這樣結局會有多糟。“英國的人工智慧謀殺預測工具是邁向‘少數派報告’的一個驚悚步伐,”人工智慧政策制定“專家”奧莉維亞週三早些時候寫道。
這場爭議引發了關於此類系統是否能夠道德運作的辯論。《經濟學人》的人工智慧作家亞歷克斯·赫恩強調了對這項技術反對意見的微妙性。“我希望反對者能更清晰地表達反對的理由是‘它不會有效’還是‘它會有效但依然不妥’,”他寫道。
這並不是政治家首次試圖利用人工智慧來預測犯罪。例如,阿根廷在去年報導稱正在開發一個能在犯罪發生前檢測犯罪的人工智慧系統,引發了爭議。
日本的人工智慧驅動應用Crime Nabi獲得了較為正面的反響,而巴西的CrimeRadar應用由Igarapé Institute開發,聲稱已在里約熱內盧的測試區域幫助減少了高達40%的犯罪率。
其他使用人工智慧來預測犯罪的國家包括南韓、中國、加拿大、英國,甚至是美國——芝加哥大學聲稱擁有一個能“提前一周預測未來犯罪,準確率約90%”的模型。
司法部尚未公開承認該計劃的全部範圍,也未對其算法中的潛在偏見問題作出回應。該系統是否已經超越開發階段進入實際部署仍然不明。