以計算機視覺、深度學習和大數據為核心,通過創新的技術架構布局多領域、多方向前沿研究,快速打通人工智能場景化應用落地,賦能行業。
通過圖像或視頻預測心率、心率變異性、血壓、血氧、呼吸率壓力六大生理指標;實現智能舌診面診,分析用戶健康狀態,賦能智慧醫療等應用場景。
利用對抗訓練、活體檢測deepfake、異常檢測等技術,保證視覺模型不僅精度高并且安全可信,賦能產業安全。
首創類腦神經網絡計算模型,該模型具備自適應、可遷移、抗噪聲能力。首創多腦區協同脈沖神經網絡模型,具備突破多腦區協同視覺、聽覺等感知的多模態學習能力,該模型具備自學習、小樣本、多模態樣本協同學習能力,可以自動標注樣本。創新性構建基于腦結構和功能啟發的防攻擊神經網絡模型。
構建了高效的特征比對策略,首先將任務串行化,利用任務的單一性對執行代碼進行規劃,提升代碼的運行效能,具備平移不變性、旋轉不變性、尺度不變性,可增強抗干擾,防止數據防篡改。
基于硬件安全模塊支持下的可信計算平臺,以提高系統整體的安全性,具備高通量編解碼、視覺語義分析、視覺圖譜構建、視覺任務建模、視覺可信推理。
云服務能力下沉,繼承了云安全、存儲、計算、人工智能能力,可部署于不同量級的智能設備和計算節點中,通過定義物模型連接不同協議、不同數據格式的設備,提供安全可靠、低延時、低成本、易擴展、弱依賴的計算服務。
多模態融合感知技術綜合利用不同傳感器獲取的信息,形成了對環境或目標更全面的感知和識別,具備全領域2D/3D視頻感知、多方位loT設備感知、全要素數據感知、多維度狀態行為感知。
獲取的圖像進行實時動態分析,并對含有槍支彈藥類、爆炸物品類、管制器具類、易燃易爆物品類、毒害性物品類、腐蝕性物品類、放射性物品類、限制攜帶物品進行實時動態預警和數據推送。
領先的ReID技術,首創突破行人特征表達技術,實現人物跨鏡頭、跨交通工具、更換服飾的跨場景跟蹤。領先的細粒度場景結構化技術、多維度行人結構化技術,基于視覺的任務推理和預測,復雜場景任務管理和規劃的智能視覺推理引擎。
利用視頻結構化技術及深度學習算法,分析圖像/視頻中所有的人臉、非機動車、機動車等目標,以及路況、行為等情況,并輸出其屬性。
人像分析:對圖片中行人的衣著、戴眼鏡、拎東西、帶口罩、帽子、發型、背包、抱小孩等屬性的識別分析。
車輛分析:檢測圖片中的車輛,并對品牌、型號、顏色、車牌號等屬性進行識別分析。
場景分析:檢測圖片中的場景,輸出檢測出的場景并進行預判分析。
通過預訓練的語義角色標注模型引入顯式的上下文語義標簽信息,以多場景技術應用為導向,提供可直接應用于產品策略的NLP技術能力。
通過對損失函數的有效組合,提高遮擋嚴重的半身照以及跨域人員的精準度。
通過攝像頭實時捕捉用戶畫面,隨機給出動作指令,根據用戶做動作的方式;或近紅外和深度攝像頭捕捉用戶畫面,判斷是否是真人。
利用靜脈中紅血球吸收特定近紅外線的特性,將近紅外線照射手指,并由圖像傳感器感應手指透射過來的光來獲取手指內部的靜脈圖像,進而進行生物特征識別。
通過共享底層網絡架構加基于注意力機制的多分支高層網絡的訓練,提高人臉特征在不同光照,遮擋的變量下特征的魯棒性。圖片/視頻中的人臉檢測,檢出率達92.4%,檢測速度達30幀/秒,支持最小為20像素的人臉圖像。精確定位圖片/視頻中人臉的256個關鍵點。