亚洲综合伊人,成人欧美一区二区三区视频不卡,欧美日韩在线高清,日韩国产午夜一区二区三区,大胆美女艺术,一级毛片毛片**毛片毛片,你瞅啥图片

您當前的位置是:  首頁 > 資訊 > 國內(nèi) >
 首頁 > 資訊 > 國內(nèi) >

信雅達新一代AI+智能外呼機器人技術揭秘

2020-10-29 09:50:09   作者:   來源:CTI論壇   評論:0  點擊:


  今年3月,小編在整理信雅達“AI+”成果時不(有)慎(意)透(宣)露(傳)了信雅達金融大數(shù)據(jù)研究院的智能外呼機器人研發(fā)狀況后,微信后臺一直有關注者追問詳細情況。
  近期,信雅達新一代AI+智能外呼機器人已在浙商銀行正式上線。
  想知道最新一代智能外呼機器人到底運用了什么新技術嗎?相信這篇技術詳解一定會讓你大呼過癮~
  1、采用Sparse Self Attention構建模型
  對于外呼機器人、智能客服這類對響應時間有著嚴格要求的系統(tǒng)和場景,在實際生產(chǎn)過程中,自然少不了對更加快速、穩(wěn)定的計算,以及用少量的算力、較少的資源損耗獲取更好運行效果的極限追求。
  而如今NLP領域中,Attention大行其道,其核心在于K、Q、V三個向量序列的交互融合,其中Q、K的交互給出了兩兩向量之間的某種相關度(權重),而最后的輸出序列則是把V按照權重求和得到的。
  那么問題來了,即使是目前較為主流的Self-Attention的理論計算時間和顯存占用量都是O(n2)級別的,這也意味著如果序列長度變成原來的2倍,顯存占用量就是原來的4倍,計算時間自然也就是原來的4倍!當然,假設并行核心數(shù)足夠多的情況下,計算時間未必會增加到原來的4倍,但是顯存的4倍卻是實實在在的,無可避免。
  為了解決以上問題,信雅達金融大數(shù)據(jù)研究院在智能外呼意圖識別算法模塊構建過程中,放棄傳統(tǒng)的Self-Attention,采用Sparse Self Attention構建模型。
  通過Top-k選擇,將原有的Attention退化為稀疏Attetion,簡單從注意力矩陣上看,就是除了相對距離不超過k的、相對距離為k,2k,3k,…的注意力都設為0,這樣一來Attention就具有“局部緊密相關和遠程稀疏相關”的特性。
  通過這種方式,可以保留最有助于引起注意的部分,并刪除其他無關的信息,這在實際的使用過程中也起到了意想不到的效果。經(jīng)過研究院測驗,這種選擇性方法在保存重要信息和消除噪聲方面是有效的,可以確保注意力可以更多地集中在最有貢獻的價值因素上。
  同時,在實際生產(chǎn)過程中,由于外界噪聲和ASR的轉義問題,經(jīng)常會在文本中引入不必要的噪聲。Sparse Self Attention在處理這方面問題上,獲得了良好的效果。
  2、知識蒸餾
  隨著預訓練模型技術的發(fā)展,譬如Bert、XLNET、GPT-3的出現(xiàn),使得AI技術對人類認知的探索更進一步。尤其是最近大火的GPT-3,作為單項語言模型訓練的代表,GPT-3的模型尺寸達到了恐怖的1750億,在45TB的訓練數(shù)據(jù)加持下,解決了業(yè)界常用的Bert預訓練模型的領域內(nèi)標簽數(shù)據(jù)依賴以及領域數(shù)據(jù)分布過擬合,目前GPT-3的Few-shot在部分NLU任務上超越了當前SOTA。
  雖然預訓練模型在很多業(yè)務場景表現(xiàn)優(yōu)異,但是其模型參數(shù)過大、預測時延較長、運行硬件成本較高的問題也導致了模型很難落地。因此,如何對預訓練模型進行模型壓縮,成為工業(yè)界和學術界共同關注的問題。
  為了能夠使用業(yè)界領先的預訓練模型,信雅達金融大數(shù)據(jù)研究院的數(shù)據(jù)科學家們采用了知識蒸餾模型壓縮技術,使預訓練模型在外呼項目中得到了高效利用。
  在原始模型訓練階段,研究院的數(shù)據(jù)科學家們基于預訓練模型Bert+深度神經(jīng)網(wǎng)絡進行構建網(wǎng)絡結構,并將基于樣本訓練的教師模型(Net-Teacher)的Class Probabilities作為壓縮模型訓練的損失函數(shù)輸入來參與后續(xù)知識蒸餾訓練過程。
  在知識蒸餾階段,研究院的數(shù)據(jù)科學家們基于相同的樣本進行Net-Student模型的蒸餾訓練,對蒸餾溫度進行合適的選取。在整個訓練階段,Net-T輸出soft-target,Net-S同時輸出soft-predictions和hard-predictions;將Net-T的soft-target與Net-S的soft-prediction對應的交叉熵相加,作為整個模型損失函數(shù)的Lsoft部分,同時將Net-S的hard-prediction與ground-truth的交叉熵作為整個模型損失函數(shù)的Lhard的部分,通過反向傳播的訓練方法進行整個模型的訓練,直到訓練停止,完成整個知識蒸餾過程。
  知識蒸餾后的模型,在準確率下降不到1%的情況下,預測時間縮短了8倍,模型壓縮帶來的收益十分可觀,可以成功運用到時延要求高的應用場景。
  3、自學習技術賦能模型自迭代
  常言道:舉一反三才能事半功倍。即使近年來自學習技術狂飆突進式發(fā)展,但人工智能在模仿人類這條路上依舊需要負重前行,畢竟只有通過學習與積累,才能實現(xiàn)從入門到專業(yè)、從青澀到成熟的轉變。
  基于對“持續(xù)學習”的考慮,信雅達金融大數(shù)據(jù)研究院此次研發(fā)的外呼機器人系統(tǒng)支持學習迭代。在項目啟動后,生產(chǎn)語料不斷積累,伴隨而來的是不斷豐富的知識庫以及多種多樣的新增意圖。為了充分利用好這些寶貴數(shù)據(jù),研究院的攻城獅們下了大功夫:將繁雜的訓練過程封裝為簡單的自訓練配置,通過一鍵式在線生成新模型,即可進行擴充語料的增量訓練,同時直接部署測試環(huán)境進行新模型測試,這樣大大縮短數(shù)據(jù)利用周期,提升學習速度,深度學習“快”人一步。
  除了上述技術之外,大家所熟知的上下文語義分析、同義詞擴展、同音字糾錯、敏感詞屏蔽等技術屬于常規(guī)操作,在實際技術方案中已經(jīng)實現(xiàn)了全面覆蓋,受篇幅所限,小編在此就不一一展開啦。
  研究院的數(shù)據(jù)科學家和攻城獅們告訴小編:“雖然項目已經(jīng)上線,機器人也在平穩(wěn)運行中,但這依然只是萬里長征第一步。”信雅達在機器人方面的研究不會止步,我們的目標是讓系統(tǒng)在新技術加持下不斷進化,幫助大金融客戶解決更多業(yè)務痛點,讓金融機構的服務不斷優(yōu)化!
【免責聲明】本文僅代表作者本人觀點,與CTI論壇無關。CTI論壇對文中陳述、觀點判斷保持中立,不對所包含內(nèi)容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。

專題

CTI論壇會員企業(yè)

河池市| 嵩明县| 泗洪县| 内黄县| 苏尼特右旗| 黄平县| 科技| 连江县| 临沭县| 浠水县| 潜山县| 肇州县| 时尚| 宜宾市| 绥阳县| 兴国县| 响水县| 溆浦县| 舟曲县| 简阳市| 弥勒县| 沙田区| 辛集市| 万全县| 聂拉木县| 平江县| 木兰县| 松江区| 岐山县| 西城区| 靖江市| 闽侯县| 宣化县| 龙里县| 会宁县| 筠连县| 南涧| 年辖:市辖区| 三原县| 庆阳市| 抚顺县|