定目標 明邊界 建機制 ——業內專家共話AI評審系列問題(二)
【圓桌論壇·從“輔助工具”到“決策核心”】
主持人:
本報記者 :張舒慧 彭勇琪
嘉賓:
清華大學公共管理學院教授 于 安
北京師范大學教授 萬 喆
天津市公共資源交易中心政采業務負責人 王永鋒
中軟國際副總裁、AIGC研究院院長 萬如意
政采云股份有限公司品牌部總監 黎 嫻
浩鯨云計算科技股份有限公司解決方案總監 李達鋒
定目標 明邊界 建機制
——業內專家共話AI評審系列問題(二)
主持人:您認為AI在政府采購評審中的終極目標是什么?是始終作為輔助評審與決策的“超級工具”,還是最終會走向解放人力、獨立承擔評審工作的“智能主體”?為什么?
于安:人工智能,特別是當前使用的大模型,應由中央統一部署,不能各行其是。其中有一個原則,即人工智能目前的定位仍是輔助決策,不能直接將其建議或預測轉化為決策本身。近期,由中央網信辦牽頭,聯合國家發展改革委共同制定印發《政務領域人工智能大模型部署應用指引》是政務系統使用大模型的重要依據。文件中已明確說明人工智能大模型“輔助型”定位。
在政府采購領域,從采購人角度出發,必須遵循這一原則。供應商的決策屬于商業決策,而采購決策屬于行政決策的一種。盡管采購決策是合同決策而非管理決策,但因其使用財政性資金、履行公共職務,仍需明確人工智能的輔助定位。尤其是在涉及資金使用的系統中,更應將人工智能定位為輔助角色。
此前,部分地方行政機構曾將人工智能直接作為決策工具,甚至告知當事人“是系統決策的結果,必須接受”。這種做法在管理決策中存在很大問題,且已有法院對此作出相關判決。因此,采購決策更應避免此類情況。
萬如意:AI在政府采購評審中的終極目標,是從“輔助工具”走向“解放人力、獨立承擔評審工作的智能主體”,而非停留在“超級工具”階段。核心原因有三點,且均與政府采購改革方向深度契合。
第一,這是突破傳統流程局限、契合結果導向的必然要求。傳統評審流程因人力知識邊界被拆分,各環節僅關注自身合規,易忽視整體采購結果。而AI作為“智能主體”,可憑借全流程知識儲備,以頂尖專家水平驅動采購全流程,主動聚焦“優質優價”目標。
第二,這是支撐采購人主體責任強化的關鍵支撐。近年來,政府采購制度改革一直在強調“誰采購、誰負責”,但部分采購人因缺乏全流程專業能力,政策難以全面落實。若AI成為“智能主體”,相當于為采購人配備“專屬采購專家”,輔助把控需求合理性、評審公正性,讓采購人真正有能力承擔“結果責任”,破解責任強化但能力不足的困境。
第三,這是人機協作形態升級的必然結果。“智能主體”并非取代人,而是重構分工。換言之,AI承擔流程性評審工作(如合規校驗、量化打分),解放人力;人則聚焦更核心的價值角色(如設定AI評審方向、糾正政策理解偏差、判斷復雜項目價值權衡),形成“技術提效、人定方向”的深度協同。這種協作遠超“超級工具”的淺層輔助,能讓“結果導向”貫穿評審全流程。
李達鋒:AI在政府采購評審領域的終極目標,是實現評審流程的全自動化與評審結果的客觀化,但這一目標的達成仍需經歷長期且嚴謹的探索過程,短期內難以完全實現。
從發展路徑來看,在政府采購這種高要求的垂直場景下,AI不宜走向“獨立評審的智能主體”,而應長期以“輔助評審與決策的超級工具”為核心定位,主要有以下三點原因:首先,當前AI技術在成熟度與專業理解能力上仍存在明顯欠缺。AI的知識獲取依賴海量數據學習,過程中易出現信息泛化、語境理解偏差等問題。尤其在政府采購評審中,部分技術方案的創新性、服務承諾的可行性需結合行業經驗與實際場景判斷,AI難以完全替代人工的專業洞察。其次,若未來AI實現獨立評審,其決策過程具有“黑箱屬性”。一旦出現評審錯誤,人工難以全面追溯錯誤根源與推理邏輯,可能導致評審結果失控,進而引發供應商質疑、投訴,甚至破壞政府采購的公正性與公信力。最后,政府采購不僅涉及技術與商業判斷,而且需兼顧公共利益、政策導向等多元目標。此類價值層面的權衡需依賴人類的倫理判斷與責任擔當,AI可能無法具備此類主觀能動性。
因此,AI評審的發展必須以健全的評審規則、完善的法律機制為支撐,始終處于“受監管+人工復核”的框架內。通過AI提升評審效率、減少主觀偏差,同時依托人工把控評審質量、承擔決策責任,形成人機協同的良性模式,確保評審結果既高效又合規。
黎嫻:我認為AI在政府采購評審中的終極目標是成為人機協同的“超級工具”,而非走向獨立評審的“智能主體”。這主要是由政府采購的本質屬性、AI技術的局限性和治理風險防控三方面的因素決定的。
一是政府采購的公共屬性決定了人類主導地位的不可替代性。政府采購除了要實現“物有所值”外,還承載著支持中小企業、綠色采購、社會公平、應急安全等政策功能。這些職能的實現需要結合人類基于公共利益、社會情景、文化背景等進行價值判斷,AI相對缺乏這種基于社會屬性的價值認知能力。
二是AI技術的固有局限性使其無法承擔獨立評審的核心職責。除了價值判斷缺失,無法準確理解評審標準背后的政策意圖和社會意義外,對于突發場景應對不足、算法倫理風險(歷史數據中的隱性歧視)等問題需要人類專家進行修正。
三是AI獨立評審的“智能主體”模式存在不可控的治理風險。一方面,“算法黑箱”會導致評審過程透明度缺失,違背政府采購“陽光采購”的核心要求,加劇公眾對結果公平性的質疑;另一方面,AI無法承擔法律責任,可能引發系統性治理危機,影響政府采購制度改革的順利推進。
萬喆:就評審工作而言,未來發展方向應為人機協同,而非全面替代。機器深度參與采購活動,可簡化重復性勞動,使人更專注于深度思考與創新見解。但前提是評審專家具備真正的專業能力,否則其重復性工作將被機器取代。
當前,AI技術局限性仍較大,未來若量子計算等實現通用化,或可帶來改變。同時,我國法律要求專家承擔評審責任,而由AI獨立評審可能導致責任空心化。公眾對AI評審結果的信任度受技術不透明、缺乏彈性等因素影響,仍需專家背書以增強公信力。因此,建議AI處理標準化環節,專家專注例外情況與技術細節復核,以實現效率與質量雙提升。比如,可建立動態權重分配機制,依據項目復雜度調整人機決策比例,高風險項目強制人工終審。
總之,AI在政府采購評審中的演進路徑應為從輔助到協同,而非簡單替代。短期需通過技術突破與法律適配提升其可解釋性、可靠性;長期應構建人機深度協同共治的新型評審體系,以實現效率與公平的最優平衡。
主持人:為確保AI的評審建議或決策透明、可解釋、可追溯,應構建怎樣的法律框架?
萬如意:構建法律框架的核心邏輯是“先定邊界、再促發展”,既要保障AI的創造性,又要通過規則確保其透明、可追溯,具體可從以下維度設計。
第一,明確可審計、可解釋的硬性要求。法律需規定,AI出具評審建議或決策時,必須同步留存可追溯臺賬,包含三大核心內容:一是數據來源(如參考的同類項目數據、政策文件);二是邏輯推導過程(如為何判斷某投標方案合理,需列明價格比對、技術匹配度分析等細節);三是結果解釋(避免專業術語堆砌,讓評審專家、供應商能清晰理解判斷依據),確保每一步決策都可核查、可驗證。
第二,建立AI能力認證機制。可借鑒美國部分行業監管經驗,針對政府采購評審場景,設立AI能力準入標準。AI需在特定品類(如醫療設備、教育軟件)完成足量模擬評審案例,且在價值判斷準確率、合規性契合度、結果可解釋性等核心指標達標后,方可獲取評審輔助資質,相當于“持證上崗”,保障AI評審能力。
第三,銜接國家大模型備案制度,增加采購場景二次備案。在國家生成式AI大模型備案基礎上,對進入政府采購評審場景的AI模型,額外審查其場景適配性。比如,重點核查AI對政府采購法律法規的理解程度,以及對不同采購品類專業知識的掌握情況,避免因模型“不懂采購、不懂行業”導致評審偏差。
第四,明確AI的“準主體地位”,既不將其等同于普通工具(否則無法發揮智力輔助價值),也不賦予其完全決策責任(否則違背現行評審責任制度)。可將其定位為“受采購人委托的專業輔助主體”,由采購人對AI行為承擔最終責任,同時要求采購人建立AI運行監督機制,形成閉環。
黎嫻:一是確立法律主體責任,特別是明確AI使用者的操作規范。二是制定相關規則、標準和機制。比如,制定透明規則,要求AI系統提供者根據風險程度,向監管方披露算法基本信息等;建立可解釋性標準,鼓勵采用可解釋AI技術;完善可追溯性機制,要求AI系統留存詳細的決策日志等。三是在強化監管與問責方面,明確AI提供方、使用方問責措施。
萬喆:一是構建數據全生命周期可追溯管理。比如,可采用區塊鏈存證系統實現采購數據全流程留痕;聯邦學習技術實現數據可用不可見,防止敏感信息泄露。二是建立算法治理機制,包括風險分級監管、強制性合規評估、供應商定期提交算法更新報告等。三是建立責任認定規則,明確過錯責任承擔方,并引入保險制度,覆蓋失誤所導致的經濟損失。四是公開技術文檔、中標公告中的AI評分依據、數據來源及專家復核意見等,提升公眾信任度。
李達鋒:需構建“全流程規制+責任明確”的法律框架,核心包含以下三方面內容。
一是明確AI評審的輸出透明義務,即在生成評審建議或決策時,完整呈現核心信息。比如,清晰列明評審所參考的政府采購法律法規條款、行業標準及項目評審細則,確保每一項結論均有據可依;標注AI分析所依賴的歷史數據、實時信息等。
二是建立評審全流程追溯機制。比如,對AI評審的每一步操作進行實時留痕,包括評審標準錄入、數據導入、模型運算、結果生成及人工修改等,形成不可篡改的評審日志。同時,日志需對“人機交互”過程進行詳細記錄,如專家對AI結果的修改內容、修改理由及確認時間,確保整個評審過程可核查。
三是界定人機協同的責任劃分,即明確AI與人工的角色定位及責任邊界。AI僅作為“輔助工具”,不承擔最終評審責任。因此,可配置專職評審復核人員,由其對AI評審結果進行全面核驗、修正,并對最終評審結果承擔法律責任。若因AI系統缺陷導致評審錯誤,需進一步明確AI技術提供方的賠償責任與整改義務,避免責任真空。
主持人:當供應商對AI產生的結果提出異議時,現行的質疑、投訴渠道應進行哪些適應性改造?或該如何設計申訴和救濟渠道?
王永鋒:如果AI技術的應用僅限于輔助決策性質,那么主要的風險挑戰來自采購人、采購代理機構以及評審專家對于輔助決策建議的使用方式,實際產生采購結論的主體依然是采購人、采購代理機構以及評審專家。因此,現行的質疑、投訴渠道并不受影響,有關部門可以考慮對采購人、采購代理機構以及評審專家采用AI技術應用提出規范性要求。
黎嫻:必須明確AI輔助工具的定位。在AI輔助評審的過程中,AI產生的結果只提供給專家參考,由評標委員會確定中標候選人名單。假設相關結果由AI產生,在設計申訴和救濟渠道時,可以引入專業的復核機制。例如,組建由算法工程師、行業專家、法律顧問等組成的復核委員會,對AI結果進行重新評估。
萬如意:異議渠道改造需分短期AI輔助階段與長期AI智能主體階段,進行差異化推進,核心是明確責任主體、保障結果公平。
在短期AI輔助階段(AI僅提供初步建議,專家定最終結果),現行質疑、投訴渠道無需大規模改造。但需新增AI輔助過程說明環節,即采購人或評審小組答復異議時,必須同步提供AI的初步評審建議、專家復核調整的具體依據,尤其要解釋AI對爭議點的判斷邏輯,消除供應商“信息不對稱”,避免因“不知AI如何判斷”而引發不必要的爭議。
在長期AI智能主體階段(AI獨立驅動部分評審流程),需新增兩類針對性救濟渠道:一是設立AI異議專項干預通道。由政府采購監督管理部門牽頭成立工作組,供應商提出異議后,工作組可啟動AI流程回溯,調取AI評審的決策日志、數據輸入記錄、邏輯推導過程,核查是否存在數據偏差、規則理解錯誤等問題,確保異議核查直達核心。二是設計流程回退機制。若核查發現AI存在問題導致結果不公,異議成立的項目可從“AI驅動流程”切回“傳統人工評審流程”重新評審,避免項目停滯。同時,將錯誤案例納入AI優化數據庫,用于改進AI判斷能力,形成“異議處理—模型迭代—結果優化”的良性循環。
無論哪個階段,相關法規都需明確“人工流程兜底”原則。即便AI技術成熟,也需長期保留傳統人工評審流程作為備用方案,確保人的最終把控權。畢竟政府采購服務公共利益,結果公平的最終判斷權仍需由人掌握。
李達鋒:一是搭建AI評審異議專屬服務平臺。平臺展示AI評審的處理流程、參考法規依據、具體評審標準、數據來源及推理邏輯等信息,為供應商提供異議查詢與咨詢服務。對供應商提出異議的具體評審項,平臺自動關聯對應的法律法規條文、評審細則及投標文件原文片段,幫助供應商快速理解AI評審結論的形成依據,減少信息不對稱。
二是簡化異議提交與流轉流程。供應商在平臺中勾選異議評審項、填寫異議理由后,平臺可自動生成標準化異議申請,并同步推送至采購人、評審專家及政府采購監管部門。
三是建立異議復核與結果反饋機制。組織“專家+技術人員”聯合復核小組,由專家負責判斷評審標準的適用與商業邏輯的合理性,技術人員負責核查AI評審的算法運算與數據處理是否存在缺陷。待復核結束后,需向供應商出具書面復核報告,詳細說明復核過程、結論及依據。若確認AI評審存在錯誤,需同步告知整改措施與重新評審的時間安排,確保異議處理全程公開、公正。
本報擁有此文版權,若需轉載或復制,請注明來源于中國政府采購報,標注作者,并保持文章的完整性。否則,將追究法律責任。
責任編輯:LIZHENG
點擊排行
歡迎訂閱中國政府采購報
我國政府采購領域第一份“中”字頭的專業報紙——《中國政府采購報》已于2010年5月7日正式創刊!
《中國政府采購報》由中國財經報社主辦,作為財政部指定的政府采購信息發布媒體,服務政府采購改革,支持政府采購事業,推動政府采購發展是國家和時代賦予《中國政府采購報》的重大使命。
《中國政府采購報》的前身是伴隨我國政府采購事業一路同行12年的《中國財經報?政府采購周刊》。《中國政府采購報》以專業的水準、豐富的資訊、及時的報道、權威的影響,與您一起把握和感受中國政府采購發展事業的脈搏與動向。
《中國政府采購報》為國際流行對開大報,精美彩色印刷;每周二、周五出版,每期8個版,全年訂價276元,每月定價23元,每季定價69元。零售每份3元。可以破月、破季訂閱。 可以破月、破季訂閱。
歡迎訂閱《中國政府采購報》!
訂閱方式:郵局訂閱(請到當地郵局直接訂閱)