瑞萊智慧CEO田天:沒有安全可控為前提 大模型無法落地應用
原創(chuàng)
2024-09-29 09:20 星期日
科創(chuàng)板日報記者 李明明
①瑞萊智慧CEO田天告訴《科創(chuàng)板日報》記者,只有提供更加安全可控的AI才能更快速地把AI賦能千行百業(yè),特別是嚴肅場景;
②隨著AIGC技術發(fā)展,將來AI合成假內(nèi)容的比例會越來越高,覆蓋面也會越來越廣,需要從技術和用戶兩方面共同努力。

《科創(chuàng)板日報》9月29日訊(記者 李明明)近期,韓國曝出“Deepfake”(深度偽造技術)事件,被認為是采用新犯罪手段的“N號房”案件重現(xiàn)。隨著AI在大模型等技術的帶動下向深度應用方向邁進,AI帶來的數(shù)據(jù)泄露、“AI換臉”等安全問題愈發(fā)嚴峻,相關的AI詐騙案件頻發(fā),正給社會帶來巨大挑戰(zhàn)。

早在AI安全問題引起廣泛重視之前,瑞萊智慧就已深耕這一領域,聚焦人工智能安全和垂類大模型應用,通過構建大模型安全基座、AI偽造內(nèi)容檢測基座等,實現(xiàn)對AI大模型研發(fā)部署和應用治理環(huán)節(jié)全覆蓋,建立了包括基礎算法平臺層、底層資源層、應用層的全方位AI安全體系。

作為清華系深耕中國人工智能領域的創(chuàng)業(yè)企業(yè)之一,瑞萊智慧由中國科學院院士、人工智能研究院名譽院長張鈸和清華大學人工智能研究院副院長、計算機系教授朱軍共同擔任首席科學家,清華大學計算機系博士田天出任首席執(zhí)行官,其也是瑞萊智慧的創(chuàng)始人。

在人工智能時代,如何守護我們的信息安全?《科創(chuàng)板日報》記者就此專訪了田天,他表示,只有提供更加安全可控的AI才能夠更快速地把AI賦能千行百業(yè),特別是嚴肅場景(比如to B)。如果沒有安全可控為前提,大模型就無法落地和應用,這是零和一的問題,有了安全可控,才有可能去實現(xiàn)應用。

提供安全可控的AI 將AI賦能千行百業(yè)

《科創(chuàng)板日報》:作為一家初創(chuàng)企業(yè),為何選擇AI安全領域入局?

田天:這個問題其實就是創(chuàng)立初衷。瑞萊智慧2018年成立,目標就是要去做更加安全可控的第三代人工智能的落地,讓人工智能真正應用起來,能夠發(fā)揮作用和價值。

在公司成立之前,我們團隊也在清華大學里進行相關技術研究,并于2018年發(fā)現(xiàn),盡管AI在很多場景、領域的發(fā)展已經(jīng)很火熱,但還不能迅速落地,因為還缺乏一個非常重要的環(huán)節(jié),即AI的安全可控問題尚未解決,而只有提供更加安全可控的AI才能夠更快速的把AI賦能千行百業(yè),特別是嚴肅場景(比如to B)。

所以公司產(chǎn)品包括兩大類。一類是安全本身,即給AI產(chǎn)品做安全增強,提供AI安全增強模塊和完整的AI解決方案,幫助客戶實現(xiàn)AI技術的應用與價值。特別是在這兩年大模型安全需求越來越多之后,我們可以給客戶提供更加安全可控的大模型整體行業(yè)落地解決方案。

另一方面是利用AI去提升生產(chǎn)力,即相關領域的AI落地、提升和改善其工作效率等。其實從成立伊始公司就在做這些工作,比如一直在做的金融領域、政府和社會治理相關行業(yè)、工業(yè)制造領域等。

《科創(chuàng)板日報》:相比已經(jīng)深耕數(shù)年的同行們,比如奇安信、啟明星辰、綠盟科技、安恒信息等,瑞萊智慧有何競爭優(yōu)勢?

田天:傳統(tǒng)網(wǎng)安公司不太可能提供一個很強大的AI系統(tǒng)并解決AI安全問題。本質上真正的AI公司是關注如何構建一個更加可控、更加安全的AI系統(tǒng),其和互聯(lián)網(wǎng)安全、數(shù)據(jù)安全是完全不同的領域。

隨著人工智能技術的發(fā)展,越來越多的企業(yè)開始關注AI安全,并試圖將AI技術應用于網(wǎng)絡安全領域。一方面,網(wǎng)安企業(yè)通過引入AI技術來增強自身的競爭力;另一方面,專門從事人工智能開發(fā)的公司也在積極探索AI安全。在這一過程中,擁有強大AI能力和專業(yè)知識的團隊成為競爭的關鍵。

在AI安全可控領域市場方面,我們還是較為領先的,并占了絕大多數(shù)份額。目前,客戶構成方面包括幾百家的大型企業(yè)(包括央國企互聯(lián)網(wǎng)公司)、政府客戶、金融機構等。

隨著AIGC技術發(fā)展,將來AI合成假內(nèi)容的比例會越來越高

《科創(chuàng)板日報》:在產(chǎn)品開發(fā)中,你和團隊遇到比較大的困難是什么?如何去解決困難?

田天:困難還是在于AI安全可控領域發(fā)展的太快,并充斥著大量的技術迭代。目前主要面臨兩個問題。一方面,我們研發(fā)一個能力更強的AI安全系統(tǒng),需要進行持續(xù)的投入,特別是在大模型日新月異的時代,如何跟上模型能力發(fā)展,并處于AI大模型安全行業(yè)的最前沿,這是一個難點;

另外一方面,最新的AI技術也會帶來很多更高層次的安全問題。此前,AI還比較弱,或者應用范圍還比較窄的時候,其安全問題不太嚴重。而隨著AI能力越來越強,應用越來越廣,其引起的安全問題類型也會越來越多,同時造成的風險隱患也會越來越大。因此,我們也要持續(xù)投入關注和研發(fā)。

此外,對于AI惡意應用,我們一直在持續(xù)跟進,會去做相關情報搜集,并在支持客戶的過程中積累了很多經(jīng)驗。甚至還會預演一下,比如模擬黑客,并先于實際黑客之前掌握攻擊方式,以便更早的做好防御準備。

《科創(chuàng)板日報》:Sora等文生視頻的出現(xiàn)給AI視頻檢測帶來了更大的不確定性,帶出了“真的假視頻”(AI生成視頻),“假的假視頻”(真人擺拍冒充Sora生成視頻)等現(xiàn)象,具體應該如何防范?

田天:AI合成視頻挑戰(zhàn)了人們之前眼見為實的常識,而且隨著AIGC技術發(fā)展,將來AI合成假內(nèi)容的比例會越來越高,覆蓋面也會越來越廣。甚至很快在互聯(lián)網(wǎng)上的信息中,AI合成的假內(nèi)容可能比真實產(chǎn)生的還要多,這也是未來的趨勢,所以這個問題首先很嚴重。

對此,需要從技術和用戶兩方面共同努力:一方面,AIGC技術和產(chǎn)品的供應商要去加強治理。通過技術手段如內(nèi)容水印和平臺標識來標明信息的真實性;另一方面,提升用戶的辨識能力,使他們能夠自主判斷所見信息的真實性。比如,我們面向個人用戶的AIGC實時檢測產(chǎn)品RealBelieve,能幫助用戶鑒別通話或網(wǎng)絡視頻中的人臉真?zhèn)?,也可在用戶瀏覽網(wǎng)頁內(nèi)容時提供AI合成可能性提示。

《科創(chuàng)板日報》:當前大模型在哪些場景下更容易發(fā)揮作用,并面臨什么挑戰(zhàn)?

田天:大模型最適合的是內(nèi)容生產(chǎn)與創(chuàng)新類場景,但對于嚴肅場景(如生產(chǎn)力提升或決策分析)由于可控性不足而不受歡迎。由于模型頻繁出現(xiàn)錯誤或不可靠的結果,導致它們無法被放心地融入到工作流程中去進行自動化操作。

我認為未來AI特別是大模型最終會在各個行業(yè)中實現(xiàn)落地應用,雖然目前AI落地仍存在許多問題,但這是一個大趨勢。然而,盡管現(xiàn)階段非常熱門,但大模型在實際業(yè)務場景中使用的案例相對較少。例如,在媒體行業(yè)中,實際應用的案例并不多見。

因此,公司正致力于實現(xiàn)更安全可控的大模型系統(tǒng),使其能在不同行業(yè)中真正落地并有效使用,并已在政府、央企等多個標桿項目中取得成果。

《科創(chuàng)板日報》: 安全可控的大模型能否應對一些特殊或敏感問題,例如涉及政治、法律合規(guī)、倫理等領域?

田天:我們的模型通過設計和開發(fā),能夠有效應對有意破壞或提出超常規(guī)交互的人。我們致力于在限定制度范圍內(nèi)工作,保證模型的安全可控。

此外,超級智能安全將是未來的關鍵問題,這在國內(nèi)外均處于起步階段,公司已在該領域投入更多資源,緊跟技術進展。同時,隨著人工智能升級,安全威脅增大,公司也將持續(xù)提高安全領域的投入比例。

目前產(chǎn)品已助力金融、政務、自動駕駛等領域

《科創(chuàng)板日報》:中國銀行行長李禮輝表示,從金融領域來看,現(xiàn)在主要的問題是AI算法和模型仍然不夠清晰和透明,有待解決技術方面的缺陷。如果把不太成熟的人工智能技術投入到高風險的金融領域,可能會放大現(xiàn)有風險,并產(chǎn)生新的風險。您怎么看?

田天:對此,我是很贊同的。如果說我們對現(xiàn)有的AI系統(tǒng)風險沒有足夠的認識,就貿(mào)然將其用在一些相對敏感嚴肅的場景,很有可能會造成比較嚴重的后果。所以我建議相應的AI系統(tǒng)必須足夠安全,或者對其安全能力有足夠認識,再去應用到適合的場景里,以避免放大現(xiàn)有風險或產(chǎn)生新的風險。

《科創(chuàng)板日報》:能否介紹一些具體的金融安全方面的案例?

田天:當下大家會通過手機銀行或者一些線上的方式刷臉,以便去驗證身份。但由于現(xiàn)在AIGC能力很強,網(wǎng)上相關方可以合成一個人臉,使其做張嘴、眨眼、搖頭等動作,然后通過高清屏或者直接注入的方式,欺騙身份核驗系統(tǒng),這也帶來了很大的風險。我們的其中一款產(chǎn)品人臉AI安全防火墻RealGuard,能夠有效檢測這種AI合成的人臉,作為現(xiàn)有系統(tǒng)的補充。

目前銀行客戶群體涵蓋了諸多頭部銀行,如郵儲、交行等。由于涉及客戶隱私,我們無法透露具體的減小了多少安全概率的數(shù)據(jù)。但可以根據(jù)實際效果來說,產(chǎn)品確實幫助客戶防御了大量的攻擊。

《科創(chuàng)板日報》:除了金融領域,公司在大模型應用上有哪些典型案例及主要聚焦點?與其他專注政務、金融等領域的同行相比,貴公司在大模型應用上的獨特之處在哪里?

田天:公司在政務領域有眾多成功案例,例如去年為北京市政府打造了政策大模型并在相關比賽中獲得第一名。此外,還在工程管理、工業(yè)生產(chǎn)、金融等領域開展深度探索,但大模型主要是作為現(xiàn)有工作流的改造升級和輔助改善工具,而非完全替代人類勞動力。公司的獨特之處在于提供的能力更加安全可控,這對許多領域的從業(yè)者來說是不具備的,同時注重提升行業(yè)原有工作流程中基于AI的新能力和應用場景。例如,在政策比較中,利用大模型可高效準確地對比不同地區(qū)政策間的異同,這是傳統(tǒng)方式難以實現(xiàn)的。

此外,我們還專注于研發(fā)自動駕駛領域的對抗攻防技術,并已成功開發(fā)出相應產(chǎn)品。并在多家車企和自動駕駛公司的研發(fā)階段進行了應用,并取得了一定的成功率,能有效防止商用系統(tǒng)在實際運行中遭遇重大故障。

值得一提的是,如果沒有安全可控為前提,大模型就完全無法落地,從而無法應用,這是零和一的問題,有了安全可控,才有可能實現(xiàn)大模型的應用。

收藏
120.56W
我要評論
歡迎您發(fā)表有價值的評論,發(fā)布廣告和不和諧的評論都將會被刪除,您的賬號將禁止評論。
發(fā)表評論
要聞
股市
關聯(lián)話題
8783 人關注
4.22W 人關注