隨著互聯(lián)網、大數(shù)據(jù)、云計算等科學技術的發(fā)展,人力、腦力和算力融合的程度愈來愈緊密,以生活要素數(shù)據(jù)化和機器自動化決策為核心的人工智能算法得到了越來越廣泛的應用。人工智能算法使得機器能夠通過可讀的指令程序,根據(jù)網絡痕跡、位置信息、消費記錄等數(shù)據(jù),對人的行為進行評價和預測。這種自動化決策方式在人員招聘、教育培訓、無人駕駛、投資咨詢、司法判決、智能診療、新聞推薦等諸多領域得到了廣泛運用,極大地降低了人們的決策成本,提高了工作效率。然而,人工智能算法獨特的運行邏輯導致法律賴以生成與存在的社會結構性場景發(fā)生了重大變化,加劇了決策者與相對人之間的“數(shù)字鴻溝”,造成個人權利與算法權力之間的失衡,從而誘發(fā)了一系列的倫理問題。這些問題在一定程度上顛覆了傳統(tǒng)的法律認知,增加了傳統(tǒng)法律治理的難度。要想增強人工智能算法法律治理的有效性和克服“人工智能時代的法律功能危機”,就必須回到人工智能算法這一基本原點,探求人工智能算法倫理危機產生的結構性因素,并在此基礎上分析既有法律治理手段存在的限度,從而為人工智能算法法律治理的轉型升級探明方向。