|
|
王生進(jìn) ,男,博士,長聘教授。1997年在東京工業(yè)大學(xué)獲博士學(xué)位,2003年至今清華大學(xué)電子工程系任教.目前主要研究內(nèi)容包括人工智能、機(jī)器學(xué)習(xí)和計算機(jī)視覺等,主要研究方向包括人臉識別與行人再識別、多模態(tài)協(xié)同機(jī)器人、智能視頻安防與智慧校園等。
以負(fù)責(zé)人和技術(shù)骨干身份承擔(dān)或參與包括973、863、國家自然科學(xué)基金、教育部博士點基金、國家科技支撐計劃等多個國家項目,并取得出色成果。實驗室在國際重要期刊IEEE和學(xué)術(shù)會議CVPR、ICCV等發(fā)表論文90篇以上。申請發(fā)明專利15項。
教育及工作經(jīng)歷:
1980/09 – 1985/07,清華大學(xué)無線電電子學(xué)系,學(xué)士學(xué)位。
1985/09 – 1988/03,北京廣播學(xué)院微波系,碩士學(xué)位。
1993/09 – 1997/03,東京工業(yè)大學(xué)智能科學(xué)專攻,博士學(xué)位。
1988/04 – 1992/08,北京廣播學(xué)院微波系,講師。
1992/09 – 1993/08,東京工業(yè)大學(xué)智能科學(xué)專攻,訪問學(xué)者。
1997/04 – 2003/08,NEC互聯(lián)網(wǎng)系統(tǒng)研究所,研究員。
2003/09 – 至今,清華大學(xué)電子系,教授。
學(xué)術(shù)兼職及社會任職:
兼任中國圖象圖形學(xué)學(xué)會視頻監(jiān)控與安全專委會主任 、北京圖象圖形學(xué)會副理事長 、全國安防標(biāo)委會人體生物特征識別應(yīng)用分技術(shù)委員會委員 、公安部安全防范技術(shù)與風(fēng)險評估公安部重點實驗室學(xué)術(shù)委員會委員 、自動化學(xué)會國防大數(shù)據(jù)分會副主任委員 、危爆品掃描探測國家工程實驗室副主任。
1. 北京圖像圖形學(xué)會副理事長、學(xué)術(shù)委員會主任。
2. 全國安防標(biāo)委會人體生物特征識別應(yīng)用分技術(shù)委員會委員。
3. 教育部網(wǎng)上巡查視頻標(biāo)準(zhǔn)專家組顧問委員。
4. 十二五國家科技支撐計劃社會公共安全(安全防范)領(lǐng)域立項專家組成員。
5. 十二五國家科技支撐計劃“公共安全物聯(lián)網(wǎng)技術(shù)研究與應(yīng)用示范”項目咨詢專家組組長。
6. 中國科學(xué)院、中國工程院、國家自然科學(xué)基金委員會主辦的“尋找青年科學(xué)之星”評審委員會信息技術(shù)領(lǐng)域評委。
7. 《遙測遙控》雜志編委。
8. 公安部安全防范技術(shù)與風(fēng)險評估公安部重點實驗室學(xué)術(shù)委員會委員。
9. 中國安全防范產(chǎn)品行業(yè)協(xié)會人體生物特征識別應(yīng)用專業(yè)組專家委員會委員。
主講課程:
主講兩門本科生和一門研究生的專業(yè)課程,以及多個專業(yè)講座課程。
本科生課程:《媒體與認(rèn)知》、《數(shù)字圖象處理》
研究生課程:《虛擬現(xiàn)實技術(shù)與多媒體人機(jī)交互》
培養(yǎng)研究生情況:
培養(yǎng)研究生100余名。
招聘情況:
研究條件和實驗室環(huán)境:
研究室擁有良好的學(xué)習(xí)與工作環(huán)境,活躍的學(xué)術(shù)氣氛,軟、硬件資源豐富,現(xiàn)有多個學(xué)術(shù)研究小組,以促進(jìn)學(xué)術(shù)交流,激勵學(xué)術(shù)創(chuàng)新。研究室培養(yǎng)學(xué)生的宗旨是,兼?zhèn)渖詈竦睦碚摶A(chǔ)和強力的科研能力。從研究室畢業(yè)的同學(xué)多在國內(nèi)外著名科研機(jī)構(gòu)和公司深造或工作。
研究室長期從事智能圖文信息處理,特別是文字和圖像的識別理解研究,致力于賦予計算機(jī)視覺感知功能。目前在漢字及多文種文字識別、多模式生物特征身份認(rèn)證、智能視頻監(jiān)控等方面取得了多項具有國際領(lǐng)先水平的研究成果。
歡迎相關(guān)企業(yè)和研究機(jī)構(gòu)與我們開展合作研究,歡迎有志于圖像處理、模式識別、以及計算機(jī)視覺等方面研究的同仁加入我們的研究團(tuán)隊!
研究方向:
主要研究方向為圖像處理,計算機(jī)視覺,虛擬現(xiàn)實技術(shù),智能交通信息處理,智能視頻監(jiān)控等。
目前的研究重點為特征提取和圖像匹配、目標(biāo)識別與跟蹤、智能視頻監(jiān)控、行為分析、基于圖像的三維建模等。研究基于視覺感知和統(tǒng)計學(xué)習(xí)的視頻模式識別的理論和方法,并在此基礎(chǔ)上,進(jìn)行圖像分析和景物理解的研究、復(fù)雜背景下目標(biāo)檢測和定位的研究、圖像目標(biāo)的識別、三維物體識別、行為識別、目標(biāo)定位與軌跡跟蹤、弱小目標(biāo)檢測,以及與計算機(jī)視覺秘密切相關(guān)的全局優(yōu)化算法的研究等。這些研究內(nèi)容均是目前計算機(jī)視覺與模式識別領(lǐng)域的熱點研究課題。
承擔(dān)科研項目情況:
以目標(biāo)檢測和識別、目標(biāo)跟蹤、行為分析為基礎(chǔ),構(gòu)建對于國家安全和公共安全有重大需求的智能視頻分析系統(tǒng)。近年來,研究團(tuán)隊獲得了包括863、國家自然科學(xué)基金、教育部博士點基金等多個國家項目支持,并取得出色成果。
1. “開放場景下基于深度學(xué)習(xí)的時空信息融合行人再識別方法研究”,國家自然科學(xué)基金,在研
2. “動態(tài)人臉快速比對技術(shù)與裝備”,科技部十三五重點研發(fā)計劃項目(課題),在研
3. “基于新型深度神經(jīng)網(wǎng)絡(luò)的圖像描述理論與方法研究”,國家自然科學(xué)基金
4. “面向人工智能基礎(chǔ)技術(shù)及應(yīng)用的檢驗檢測基礎(chǔ)服務(wù)平臺建設(shè)”,工信部2019年產(chǎn)業(yè)技術(shù)基礎(chǔ)公共服務(wù)平臺項目
5. “多源信息關(guān)聯(lián)整合與共享聯(lián)動技術(shù)與系統(tǒng)研發(fā)”,國家科技支撐計劃項目
6. “海量不確定異構(gòu)數(shù)據(jù)的集成管理與分析技術(shù)”,國家863計劃項目
7. “重現(xiàn)的行人目標(biāo)數(shù)據(jù)關(guān)聯(lián)和深度跟蹤理論及方法研究”,國家自然科學(xué)基金
8. “基于人類視覺感知和認(rèn)知機(jī)理的視頻圖像模式識別和機(jī)器學(xué)習(xí)”,國家863計劃項目
9.基于視覺的,重點研發(fā)計劃(先進(jìn)技術(shù))-424 創(chuàng)新特區(qū)項目(清華大學(xué)牽頭)
10.車輛違章二次識別算法技術(shù)研究與開發(fā)服務(wù),企事業(yè)單位委托項目
11.人臉識別算法技術(shù)研究與開發(fā)服務(wù),企事業(yè)單位委托項目
12.行人識別算法技術(shù)研究與開發(fā)服務(wù),企事業(yè)單位委托項目
13.人口信息生物特征識別應(yīng)用技術(shù)研究,企事業(yè)單位委托項目
14.面向分類的自學(xué)習(xí)技術(shù)合作項目,企事業(yè)單位委托項目
15.清華大學(xué)-佛山先進(jìn)制造研究院電子信息器件與系統(tǒng)聯(lián)合研究中心,聯(lián)合機(jī)構(gòu)合作協(xié)議
16.體智能AI評量系統(tǒng),企事業(yè)單位委托項目
17.基于計算機(jī)視覺技術(shù)的人面部三維特征識別對醫(yī)用防護(hù)口罩密合性的應(yīng)用研究,北京市政府部門其他項目
18.清華大學(xué)-商湯科技“感知計算”產(chǎn)學(xué)研深度融合專項計劃合作協(xié)議(第一期),企事業(yè)單位委托項目
19.基于局部特征感知深度學(xué)習(xí)的部分成像ReID與 時空信息感知深度學(xué)習(xí)的視頻ReID方法研究,企事業(yè)單位委托項目
20.人工智能與3D打印融合智能計算技術(shù),企事業(yè)單位委托項目
21.(豐田AI中心子項目)駕駛員學(xué)習(xí)模型的研究,聯(lián)合共建支撐項目
22.典型目標(biāo)屬性識別技術(shù)研究,重點研發(fā)計劃(先進(jìn)技術(shù))-426 基礎(chǔ)加強項目(子課題)
23.樣本融合學(xué)習(xí)算法模塊開發(fā),專項-429 重大專項
24.視頻圖像相機(jī)來源聚類證偽技術(shù)研究,重點研發(fā)計劃(國內(nèi))-126 子課題
25.(豐田AI中心子項目)場景理解與模仿學(xué)習(xí)自動駕駛算法研究,聯(lián)合共建支撐項目
26.智慧工廠關(guān)重區(qū)域人員進(jìn)出及工作狀態(tài)監(jiān)測技術(shù),企事業(yè)單位委托項目
27.生物發(fā)酵產(chǎn)程中的智能檢測與智控技術(shù)研發(fā),企事業(yè)單位委托項目
28.清華大學(xué)(電子系)-北京華成智云軟件股份有限公司視覺計算技術(shù)與系統(tǒng)聯(lián)合研究中心,聯(lián)合機(jī)構(gòu)合作協(xié)議
29.(豐田AI中心子項目)場景理解與模仿學(xué)習(xí)自動駕駛算法研究, 聯(lián)合共建支撐項目
30.(豐田AI中心子項目)場景理解與模仿學(xué)習(xí)自動駕駛算法研究(2023年度),聯(lián)合共建支撐項目
31.冠脈造影節(jié)段機(jī)器識別,企事業(yè)單位委托項目
32.視頻描述與多模態(tài)語義獲取,重點研發(fā)計劃(國內(nèi))-125 課題牽頭(項目校外牽頭)
33. 教育部博士點基金項目(20090002110077) 基于在線特征學(xué)習(xí)的人形表象數(shù)據(jù)關(guān)聯(lián)方法及其應(yīng)用研究、主持。
34. 國家863計劃項目(2006AA01Z115)基于人類視覺感知和認(rèn)知機(jī)理的視頻圖像模式識別和機(jī)器學(xué)習(xí)、主持。
35. 國家863計劃項目“駕駛?cè)税踩珷顟B(tài)監(jiān)測及預(yù)警技術(shù)”的子課題:駕駛?cè)税踩珷顟B(tài)識別技術(shù)。
36. 國家973計劃項目“基于視覺認(rèn)知的非結(jié)構(gòu)化信息處理理論與關(guān)鍵技術(shù)”的子課題:非結(jié)構(gòu)化圖文信息理解與檢索的關(guān)鍵技術(shù)。
37. CNGI示范工程項目:基于IPv6的高性能視頻傳輸和共享虛擬現(xiàn)實。
研究概況:
研究內(nèi)容包括人工智能、機(jī)器學(xué)習(xí)和計算機(jī)視覺等,主要研究方向包括人臉識別與行人再識別、多模態(tài)協(xié)同機(jī)器人、智能視頻安防與智慧校園等。
在人臉識別研究中,2004年團(tuán)隊在國家863人臉識別認(rèn)證評測中獲第一;第17屆國際模式識別會議(ICPR2004)人臉認(rèn)證競賽(FAT2004)中,以全部測試指標(biāo)第一獲“人臉認(rèn)證算法全面性能最優(yōu)成就獎”;2018年在國際權(quán)威人臉檢測測試庫FDDB取得國際第一。研究成果已經(jīng)應(yīng)用在貴州六盤水市公安局。在行人再識別研究中,2015年行人再識別研究成果被《麻省理工學(xué)院技術(shù)評論》高度評價。建立并公開了三個本領(lǐng)域權(quán)威測試行人數(shù)據(jù)集iLIDS-VID、Market1501、MARS。到目前為止,成為本領(lǐng)域標(biāo)準(zhǔn)測試集,三個數(shù)據(jù)集已經(jīng)有超過13600次的下載量。
多模態(tài)協(xié)同機(jī)器人研究致力于研究與人在共同空間、近距離、協(xié)同工作的機(jī)器人,實現(xiàn)多模態(tài)人機(jī)物交互。研究的核心技術(shù)包括通用物體檢測,語音識別與NLP,視覺圖像的多模態(tài)語義理解,目標(biāo)物體位姿估計與抓取點確定,視覺與觸覺力反饋融合的物體抓取,持物移動中的平衡策略等。目前研究構(gòu)建了面向人機(jī)交互短語命令的語音識別原型系統(tǒng)引擎,實現(xiàn)由語音指令控制的機(jī)器人物體抓取系統(tǒng)。
獲得了包括973、863、國家自然科學(xué)基金、教育部博士點基金、國家科技支撐計劃等多個國家項目支持,并取得出色成果。實驗室在國際重要期刊IEEE和學(xué)術(shù)會議CVPR、ICCV等發(fā)表論文90篇以上。申請發(fā)明專利15項。獲2008年國家科技進(jìn)步二等獎1項、獲2006北京市科學(xué)技術(shù)一等獎1項,獲2019年吳文俊人工智能科學(xué)技術(shù)自然科學(xué)二等獎。
擔(dān)任中國圖象圖形學(xué)學(xué)會視頻監(jiān)控與安全專委會主任、北京圖象圖形學(xué)會副理事長、全國安防標(biāo)委會人體生物特征識別應(yīng)用分技術(shù)委員會委員、公安部安全防范技術(shù)與風(fēng)險評估公安部重點實驗室學(xué)術(shù)委員會委員、自動化學(xué)會國防大數(shù)據(jù)分會副主任委員、危爆品掃描探測國家工程實驗室副主任。
科研成果:
獲得了包括973、863、國家自然科學(xué)基金、教育部博士點基金、國家科技支撐計劃等多個國家項目支持,并取得出色成果。在國際重要期刊IEEE和學(xué)術(shù)會議發(fā)表論文逾200余篇,其中近年發(fā)表IEEE Trans等頂級期刊18篇,CVPR/ICCV /ECCV 三大頂會30篇,其他頂會16篇。谷歌單篇引用逾4500次。申請發(fā)明專利15項。
發(fā)表AAAI2018 oral 1篇, ICCV2023 oral 1篇, ICASSP2023 oral 1篇, ICASSP2024 oral 1篇。王生進(jìn)連續(xù)4年4次入選愛思唯爾中國高被引學(xué)者榜單(王生進(jìn)2020、2021、2022、2023)。
獲2008年國家科技進(jìn)步二等獎1項、獲2006北京市科學(xué)技術(shù)一等獎1項,獲2019年吳文俊人工智能科學(xué)技術(shù)自然科學(xué)獎,2019年公安部科學(xué)技術(shù)獎,DAS最佳論文 1篇,ICPR最佳論文 1篇,2017年度中國人工智能學(xué)會優(yōu)秀博士論文獎,2020年度中國圖像圖形學(xué)會優(yōu)秀博士論文獎,獲2021北京市科學(xué)技術(shù)獎技術(shù)發(fā)明一等獎1項。
8.2024年6月5日,王生進(jìn)、李亞利指導(dǎo)的博士生王振宇的學(xué)術(shù)論文“UniDetector: Towards Universal Object Detection with Heterogeneous Supervision”,被本領(lǐng)域頂級期刊PAMI接收。這是繼去年團(tuán)隊ICCV2023 Oral, ICASSP2024 Oral,ICME2024 Oral之后深度學(xué)習(xí)與通用視覺感知模型研究領(lǐng)域又一篇高水平論文被接收。
7.2024年4月26日,天津市人民政府頒布了2023年度天津市科學(xué)技術(shù)獎獲獎名單,由天津市眼科醫(yī)院及清華大學(xué)等高校單位共同完成的“人工智能輔助的生物醫(yī)學(xué)新方法在提升視覺精準(zhǔn)診療中的應(yīng)用”項目榮獲2023年度天津市科技進(jìn)步一等獎。王生進(jìn)教授為本次獲獎項目的第3排名獲獎人。主要貢獻(xiàn):帶領(lǐng)團(tuán)隊基于深度學(xué)習(xí)等方法預(yù)測近視并發(fā)現(xiàn)視覺規(guī)律,開發(fā)基于眼底圖像的新型智能化視網(wǎng)膜檢影系統(tǒng),實現(xiàn)在非散瞳狀態(tài)下的精準(zhǔn)驗光,提升了臨床診療效率。這是繼王生進(jìn)教授2021年獲得北京市科學(xué)技術(shù)獎技術(shù)發(fā)明一等獎(排名2)后再次獲得省部級科學(xué)技術(shù)獎勵。
6.電子工程系王生進(jìn)、李亞利團(tuán)隊的博士生劉鑫的論文“基于自監(jiān)督信息瓶頸的通用視覺表征學(xué)習(xí)”(Learning Generalizable Visual Representations via Self-Supervised Information Bottleneck) 于2024年3月9日被第49屆IEEE國際聲學(xué)、語音和信號處理會議(2024 IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2024)接收為口頭報告(Oral)發(fā)表。當(dāng)?shù)貢r間4月18日,劉鑫在韓國首爾參加該學(xué)術(shù)會議并作大會口頭報告。ICASSP 2024的有效投稿數(shù)為5796,共有738篇論文被接收為口頭報告發(fā)表,接收率約為12.7%。
2024年4月14日至4月19日,第49屆IEEE 國際聲學(xué)、語音和信號處理會議(2024 IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2024)在韓國首爾舉辦。ICASSP是國際規(guī)模最大、學(xué)科最全面的信號處理及其應(yīng)用方面的頂會,是IEEE的旗艦會議,展示了信號處理研究和技術(shù)的最新進(jìn)展。電子工程系王生進(jìn)、李亞利團(tuán)隊在機(jī)器學(xué)習(xí)和計算機(jī)視覺研究領(lǐng)域取得了突出成果,多次獲得學(xué)術(shù)獎勵,論文單篇引用逾4000次。該篇論文是繼該團(tuán)隊在AAAI 2020、ICASSP 2023、ICCV 2023上發(fā)表Oral論文之后的又一篇頂級國際學(xué)術(shù)會議Oral論文。
5.電子工程系王生進(jìn)、李亞利團(tuán)隊的博士生豆朝鵬的論文《面向域泛化行人再識別的身份導(dǎo)向自監(jiān)督表征學(xué)習(xí)》(Identity-Seeking Self-Supervised Representation Learning for Generalizable Person Re-identification)于2023年8月12日被國際計算機(jī)視覺大會(IEEE International Conference on Computer Vision, ICCV2023)接收為Oral。當(dāng)?shù)貢r間10月6日,豆朝鵬赴法國巴黎參加該學(xué)術(shù)會議并作大會口頭報告。ICCV2023的有效投稿數(shù)為8088,最終接收了2160篇文章,接收率約26.7%,共有152篇論文被接收為口頭報告(Oral),接收率僅1.9%。
ICCV會議由電氣與電子工程師學(xué)會(The Institute of Electrical and Electronics Engineers, IEEE)舉辦,與計算機(jī)視覺模式識別會議(IEEE Conference on Computer Vision and Pattern Recognition , CVPR)和歐洲計算機(jī)視覺會議(European Conference on Computer Vision, ECCV)并稱計算機(jī)視覺方向的三大會議,被中國計算機(jī)學(xué)會等機(jī)構(gòu)評為最高級別的學(xué)術(shù)會議,在業(yè)內(nèi)具有極高的評價,擁有極高的領(lǐng)域影響力。電子工程系王生進(jìn)、李亞利團(tuán)隊在機(jī)器學(xué)習(xí)和計算機(jī)視覺研究領(lǐng)域取得了突出成果,多次獲得學(xué)術(shù)獎勵,論文單篇引用逾4000次。該篇論文是繼該團(tuán)隊在國際先進(jìn)人工智能協(xié)會的人工智能會議(AAAI Conference on Artificial Intelligence, AAAI)和國際聲學(xué)、語音與信號處理會議(International Conference on Acoustics, Speech and Signal Processing, ICASSP)上發(fā)表Oral論文之后的又一篇頂級國際學(xué)術(shù)會議Oral論文。
4.Intel室內(nèi)機(jī)器人學(xué)習(xí)全球挑戰(zhàn)賽決賽在上海市長寧區(qū)成功舉辦。初賽共14支隊伍于2022年3-6月相繼進(jìn)行線上測試,本次CV-AI團(tuán)隊共報名識別和操作兩個賽道。在識別賽道中,CV-AI團(tuán)隊參與了物體識別與尋找子賽道,最終,CV-AI團(tuán)隊線上測試準(zhǔn)確率為7/9,離線測試準(zhǔn)確率為100%。清華大學(xué)電子工程系CV-AI團(tuán)隊(指導(dǎo)教師:王生進(jìn)、李亞利, 團(tuán)隊成員:魯宇豪、智佩淵、陳祖煜、豆朝鵬、樊懿軒、潘明軒)參賽并榮獲識別賽道一等獎、操控賽道二等獎、全球挑戰(zhàn)賽決賽一等獎。
3.王重道博士論文被評選為2022年度清華大學(xué)博士論文,同時,在清華大學(xué)研究生畢業(yè)典禮上,邱勇校長表彰了全校共96名優(yōu)秀畢業(yè)生。電子系博士畢業(yè)生王重道獲得2022年度“清華大學(xué)優(yōu)秀博士畢業(yè)生”獎項。
2.鄭良博士論文被評選為2017年度中國人工智能學(xué)會優(yōu)秀博士論文(全國10篇)。
1.孫奕帆博士論文被評選為2020年度中國圖像圖形學(xué)會優(yōu)秀博士論文(全國10篇)。
認(rèn)定成果:
1 非結(jié)構(gòu)光場智能成像關(guān)鍵技術(shù)與裝備 方璐;王生進(jìn);趙嚴(yán);王濱;袁肖赟;溫建偉;金剛 清華大學(xué) 2021
2 多源信息關(guān)聯(lián)整合與共享聯(lián)動技術(shù)與系統(tǒng) 張俊業(yè);李躍威;高磊;王生進(jìn);孫怡;趙炫;蘭玉文;李鵬飛;彭良瑞;馬曉紅;尹繼偉;喻松春;費寶頂;李亞利;戚金清 公安部第一研究所 2016
3 高性能維吾爾文識別與理解系統(tǒng) 丁曉青;彭良瑞;吐爾根·依布拉音;哈力木拉提·買買提;謝旭東;劉長松;吳佑壽;姜志威;蘇冰;王生進(jìn);王言偉;麥熱哈巴·艾力;卡哈爾江·阿比的熱西;張巖;劉祥豹;何培新;買合木提·買買提;李寧;努爾艾力·喀迪爾;邵偉;楊敏;閔京松;王琳琬 清華大學(xué) 2014
4 TH-IDvs視頻監(jiān)控人臉識別技術(shù)與系統(tǒng) 丁曉青;方馳;文迪;黃琛;劉長松;梁亦聰;何智翔;丁镠;洪立俊;申文濤;賈強;吳佑壽;王生進(jìn);彭良瑞;李亞利;劉曉春;王賢良;孫慶南;楊春宇;趙元興 清華大學(xué) 2013
5 非結(jié)構(gòu)化信息(圖像)的內(nèi)容理解與語義表征 史忠植;丁曉青;何清;王生進(jìn);胡宏;蒙祖強;劉長松;方馳;施智平;劉曦 中國科學(xué)院計算技術(shù)研究所 2011
6 視頻安防監(jiān)控數(shù)字錄像設(shè)備圖像質(zhì)量評價測試系統(tǒng) 盧玉華;王生進(jìn);邵子健;劉琳;蘆朋;鹿文浩;陶磊;譚耀麟 公安部第一研究所 2010
7 軟件自治愈與自恢復(fù)技術(shù) 史忠植;丁曉青;何清;王生進(jìn);胡宏;蒙祖強;劉長松;方馳;施智平;劉曦 中國科學(xué)院計算技術(shù)研究所 2009
8 TH-ID多模生物特征(人臉筆跡簽字虹膜)身份識別認(rèn)證系統(tǒng) 丁曉青;方馳;劉長松;彭良瑞;王爭兒;薛峰;王賢良;陳彥;吳佑壽;王生進(jìn);馮薪樺;馬勇;楊瓊;李昕;雷云;蔣焰 清華大學(xué) 2005
9 TH-ID人臉和筆跡生物特征身份識別認(rèn)證系統(tǒng) 丁曉青;方馳;劉長松;彭良瑞;王爭兒;薛峰;王賢良;陳彥;吳佑壽;王生進(jìn);馮薪樺;馬勇;楊瓊;李昕;雷云;蔣焰 清華大學(xué)電機(jī)工程與應(yīng)用電子技術(shù)系 2005
10 維哈柯(漢英)阿(英)雙向印刷文檔識別系統(tǒng) 丁曉青;彭良瑞;靳簡明;王華;哈力木拉提;劉長松;方馳;吳佑壽;吐爾根·依布拉音;王生進(jìn);李昕;修平平 清華大學(xué) 2004
制定標(biāo)準(zhǔn):
1 公共安全 生物特征識別 術(shù)語 現(xiàn)行 GB/T 41786-2022 2023-06-07 國家標(biāo)準(zhǔn)
2 公安視頻監(jiān)控人像/人臉識別應(yīng)用技術(shù)要求 現(xiàn)行 GA/T 1756-2020 2021-06-08 行業(yè)標(biāo)準(zhǔn)
3 安全防范 人臉識別應(yīng)用 程序接口規(guī)范 現(xiàn)行 GA/T 1326-2017 2018-05-17 行業(yè)標(biāo)準(zhǔn)
4 安防掌靜脈識別應(yīng)用圖像技術(shù)要求 現(xiàn)行 GA/T 1395-2017 2018-05-17 行業(yè)標(biāo)準(zhǔn)
5 甚低頻感應(yīng)入侵探測器技術(shù)要求 現(xiàn)行 GA/T 1372-2017 2017-05-27 行業(yè)標(biāo)準(zhǔn)
6 安全防范監(jiān)控數(shù)字視音頻編解碼技術(shù)要求 被代替 GB/T 25724-2010 2023-10-20 國家標(biāo)準(zhǔn)
7 安防生物特征識別應(yīng)用術(shù)語 現(xiàn)行 GA/T 893-2010 2017-05-05 行業(yè)標(biāo)準(zhǔn)
發(fā)明公開:
[1]李亞利, 張濟(jì)川, 王生進(jìn). 一種面向開放環(huán)境的多模態(tài)人像表情識別方法及裝置[P]. 北京市: CN118196854A, 2024-06-14.
[2]彭良瑞, 趙珂萌, 姚剛, 丁寧, 唐沛, 王生進(jìn). 基于深度表征學(xué)習(xí)的車牌圖像識別方法及系統(tǒng)[P]. 北京市: CN117373010A, 2024-01-09.
[3]羅常偉, 黃晶, 王生進(jìn), 王桂芳, 蔡穎南. 基于面部圖像的口罩適合性檢測方法及裝置[P]. 北京市: CN116631019A, 2023-08-22.
[4]楊舒, 王生進(jìn). 一種基于多模板提示學(xué)習(xí)的視覺分類方法和裝置[P]. 北京市: CN116416480A, 2023-07-11.
[5]余盛銘, 王生進(jìn). 基于Transformer的兩步式領(lǐng)域自適應(yīng)行人再識別方法[P]. 北京市: CN115497120A, 2022-12-20.
[6]許景燾, 李亞利, 王生進(jìn). 一種大場景圖像的區(qū)域提取方法及裝置[P]. 北京市: CN114723718A, 2022-07-08.
[7]王生進(jìn), 魯宇豪, 李亞利. 一種機(jī)器手抓取姿勢質(zhì)量的物理度量方法及裝置[P]. 北京市: CN114083535A, 2022-02-25.
[8]王羽飛, 王生進(jìn). 人臉識別方法、裝置及電子設(shè)備[P]. 北京市: CN113936308A, 2022-01-14.
[9]彭良瑞, 石浩東, 閆睿劼, 王生進(jìn). 場景文字識別模型的訓(xùn)練方法與識別方法及裝置[P]. 北京市: CN113762241A, 2021-12-07.
[10]石家赫, 李亞利, 王生進(jìn). 人臉圖像的情緒確定方法、裝置、電子設(shè)備及存儲介質(zhì)[P]. 北京市: CN113326762A, 2021-08-31.
[11]王重道, 王生進(jìn). 基于無監(jiān)督學(xué)習(xí)的行人再識別方法及系統(tǒng)[P]. 北京市: CN113255394A, 2021-08-13.
[12]方璐, 季夢奇, 鄭添, 袁肖赟, 王生進(jìn). 一種動態(tài)光場重建方法、裝置及設(shè)備[P]. 北京市: CN113192185A, 2021-07-30.
[13]方璐, 季夢奇, 張晉之, 王生進(jìn). 一種稀疏光場重建方法及裝置[P]. 北京市: CN113129352A, 2021-07-16.
[14]彭良瑞, 肖善譽, 閆睿劼, 姚剛, 王生進(jìn), 閔載植, 石宗燁. 基于序列變形的場景文字檢測方法及系統(tǒng)[P]. 北京市: CN112926372A, 2021-06-08.
[15]方璐, 王雪揚, 季夢奇, 王生進(jìn). 一種動態(tài)大場景自適應(yīng)智能處理方法[P]. 北京市: CN112446379A, 2021-03-05.
[16]方璐, 季夢奇, 毛適, 王生進(jìn). 一種場景語義分割方法、裝置、電子設(shè)備[P]. 北京市: CN112446385A, 2021-03-05.
[17]彭良瑞, 閆睿劼, 肖善譽, 姚剛, 王生進(jìn), 閔載植, 石宗燁. 基于多元注意力機(jī)制的多方向場景文字識別方法及系統(tǒng)[P]. 北京市: CN112215223A, 2021-01-12.
[18]韓劍, 王生進(jìn), 李亞利. 基于半監(jiān)督學(xué)習(xí)的行人再識別方法及裝置[P]. 北京市: CN111563424A, 2020-08-21.
[19]康凱, 范英, 徐飛, 宰旭昕, 施一琳, 孔宇廉, 王重道, 王生進(jìn). 跨年齡人臉識別方法及裝置[P]. 北京市: CN111209878A, 2020-05-29.
[20]趙炫, 王生進(jìn), 李亞利. 一種基于時空約束的目標(biāo)聚類方法及系統(tǒng)[P]. 北京市: CN110765863A, 2020-02-07.
[21]江碧濤, 李曉斌, 王生進(jìn), 楊淵博, 傅雨澤, 孟鋼, 羅江鋒, 尹璐, 岳文振, 李陽, 張宇喆, 李志欣. 一種基于人機(jī)融合的目標(biāo)識別方法[P]. 北京市: CN110348296A, 2019-10-18.
[22]江碧濤, 李曉斌, 王生進(jìn), 楊淵博, 羅江鋒, 張宇喆, 尹璐, 張硯, 李陽, 沈黎. 一種可見光遙感圖像候選目標(biāo)提取與分類方法[P]. 北京市: CN110008899A, 2019-07-12.
[23]李曉斌, 江碧濤, 王生進(jìn), 楊淵博, 孟鋼, 傅雨澤, 岳文振, 孫曉坤, 鄒飛, 李志欣. 一種由區(qū)域到目標(biāo)的可見光遙感圖像候選目標(biāo)提取方法[P]. 北京市: CN110008900A, 2019-07-12.
[24]王生進(jìn), 王晗. 行人檢測方法和裝置[P]. 北京市: CN109871792A, 2019-06-11.
[25]王生進(jìn), 舒晗. 用于目標(biāo)檢測的卷積神經(jīng)網(wǎng)絡(luò)模型的壓縮方法和系統(tǒng)[P]. 北京市: CN108898168A, 2018-11-27.
[26]彭良瑞, 閆睿劼, 陳立人, 劉長松, 丁曉青, 王生進(jìn). 基于時間殘差長短時記憶網(wǎng)絡(luò)的阿拉伯文識別方法及系統(tǒng)[P]. 北京: CN107679585A, 2018-02-09.
[27]王生進(jìn), 李棟. 一種物體檢測方法及裝置[P]. 北京: CN107545263A, 2018-01-05.
[28]王生進(jìn), 趙炫. 一種大流量通關(guān)快速身份核驗方法和系統(tǒng)[P]. 北京: CN107066945A, 2017-08-18.
[29]王生進(jìn), 趙炫. 一種人臉識別處理方法和系統(tǒng)[P]. 北京: CN107025435A, 2017-08-08.
[30]王生進(jìn), 舒晗. 人臉檢測方法及裝置[P]. 北京: CN106951826A, 2017-07-14.
[31]王生進(jìn), 劉紫瓊. 一種基于Siamese網(wǎng)絡(luò)的圖像檢索方法及系統(tǒng)[P]. 北京: CN106909625A, 2017-06-30.
[32]何建偉, 王大力, 于紅洋, 李蒙, 王生進(jìn), 陳蕩蕩. 一種人臉活體檢測方法和裝置[P]. 北京: CN106897657A, 2017-06-27.
[33]王生進(jìn), 劉紫瓊. 一種基于區(qū)域特征的圖像檢索方法及系統(tǒng)[P]. 北京: CN106886783A, 2017-06-23.
[34]王生進(jìn), 田露. 一種行人識別方法和裝置[P]. 北京: CN106529442A, 2017-03-22.
[35]王生進(jìn), 陳蕩蕩. 人臉識別方法及裝置[P]. 北京: CN105809154A, 2016-07-27.
[36]王生進(jìn), 陳蕩蕩, 何建偉, 程景春, 王大力, 趙亞麗, 于紅洋, 余盛銘, 李蒙. 防止照片攻擊的人臉識別方法及裝置[P]. 北京: CN105488486A, 2016-04-13.
[37]王生進(jìn), 趙亞麗, 何建偉, 陳蕩蕩, 王大力, 程景春, 于紅洋, 余盛銘, 李蒙. 基于眼部信息的活體人臉檢測方法及裝置[P]. 北京: CN105243378A, 2016-01-13.
[38]王生進(jìn), 程景春, 何建偉, 陳蕩蕩, 王大力, 趙亞麗, 于紅洋, 余盛銘, 李蒙. 一種基于虹膜變化的活體識別方法及系統(tǒng)[P]. 北京: CN105139006A, 2015-12-09.
[39]王飛躍, 胡斌, 熊剛, 朱鳳華, 王生進(jìn). 一種基于視頻監(jiān)控圖像的行人檢測和計數(shù)方法[P]. 北京: CN103646257A, 2014-03-19.
[40]成波, 王文軍, 張波, 王生進(jìn). 基于路面標(biāo)識識別違規(guī)駕駛行為的方法及系統(tǒng)[P]. 北京: CN103116748A, 2013-05-22.
[41]林源, 王生進(jìn), 桂良琰, 丁曉青. 三維頭部模型重建方法[P]. 北京: CN102663820A, 2012-09-12.
[42]李亞利, 王生進(jìn), 方馳, 丁曉青. 視覺廣告效果評估系統(tǒng)及方法[P]. 北京: CN102542492A, 2012-07-04.
[43]何飛, 王生進(jìn), 蘇亞, 陳晨, 鄭良, 丁曉青. 圖像采集分析方法[P]. 北京: CN102184405A, 2011-09-14.
[44]丁曉青, 谷軍霞, 吳佑壽, 王生進(jìn), 方馳, 劉長松. 一種行為描述的方法和裝置[P]. 北京: CN101482928, 2009-07-15.
[45]丁曉青, 徐劍, 吳佑壽, 王生進(jìn). 一種多視角運動目標(biāo)檢測、定位與對應(yīng)方法[P]. 北京: CN101144716, 2008-03-19.
[46]丁曉青, 雷云, 王生進(jìn), 熊斌, 方馳, 劉長松, 彭良瑞. 圖像匹配方法[P]. 北京: CN101140624, 2008-03-12.
[47]丁曉青, 方馳, 舒暢, 劉長松, 蔣焰, 王生進(jìn), 彭良瑞. 生物特征融合的身份識別和認(rèn)證方法[P]. 北京: CN1794266, 2006-06-28.
發(fā)明授權(quán):
[1]彭良瑞, 閆睿劼, 肖善譽, 姚剛, 王生進(jìn), 閔載植, 石宗燁. 基于多元注意力機(jī)制的多方向場景文字識別方法及系統(tǒng)[P]. 北京市: CN112215223B, 2024-03-19.
[2]羅常偉, 黃晶, 王生進(jìn), 王桂芳, 蔡穎南. 基于面部圖像的口罩適合性檢測方法及裝置[P]. 北京市: CN116631019B, 2024-02-27.
[3]余盛銘, 王生進(jìn). 基于Transformer的兩步式領(lǐng)域自適應(yīng)行人再識別方法[P]. 北京市: CN115497120B, 2023-12-15.
[4]李曉斌, 江碧濤, 王生進(jìn), 楊淵博, 孟鋼, 傅雨澤, 岳文振, 孫曉坤, 鄒飛, 李志欣. 一種由區(qū)域到目標(biāo)的可見光遙感圖像候選目標(biāo)提取方法[P]. 北京市: CN110008900B, 2023-12-12.
[5]楊舒, 王生進(jìn). 一種基于多模板提示學(xué)習(xí)的視覺分類方法和裝置[P]. 北京市: CN116416480B, 2023-08-25.
[6]王生進(jìn), 魯宇豪, 李亞利. 一種機(jī)器手抓取姿勢質(zhì)量的物理度量方法及裝置[P]. 北京市: CN114083535B, 2023-06-13.
[7]彭良瑞, 肖善譽, 閆睿劼, 姚剛, 王生進(jìn), 閔載植, 石宗燁. 基于序列變形的場景文字檢測方法及系統(tǒng)[P]. 北京市: CN112926372B, 2023-03-10.
[8]韓劍, 王生進(jìn), 李亞利. 基于半監(jiān)督學(xué)習(xí)的行人再識別方法及裝置[P]. 北京市: CN111563424B, 2022-08-30.
[9]方璐, 季夢奇, 鄭添, 袁肖赟, 王生進(jìn). 一種動態(tài)光場重建方法、裝置及設(shè)備[P]. 北京市: CN113192185B, 2022-05-17.
[10]趙炫, 王生進(jìn), 李亞利. 一種基于時空約束的目標(biāo)聚類方法及系統(tǒng)[P]. 北京市: CN110765863B, 2022-05-17.
[11]江碧濤, 李曉斌, 王生進(jìn), 楊淵博, 傅雨澤, 孟鋼, 羅江鋒, 尹璐, 岳文振, 李陽, 張宇喆, 李志欣. 一種基于人機(jī)融合的目標(biāo)識別方法[P]. 北京市: CN110348296B, 2022-04-12.
[12]王生進(jìn), 舒晗. 用于目標(biāo)檢測的卷積神經(jīng)網(wǎng)絡(luò)模型的壓縮方法和系統(tǒng)[P]. 北京市: CN108898168B, 2021-06-01.
[13]方璐, 季夢奇, 毛適, 王生進(jìn). 一種場景語義分割方法、裝置、電子設(shè)備[P]. 北京市: CN112446385B, 2021-04-30.
[14]方璐, 王雪揚, 季夢奇, 王生進(jìn). 一種動態(tài)大場景自適應(yīng)智能處理方法[P]. 北京市: CN112446379B, 2021-04-20.
[15]江碧濤, 李曉斌, 王生進(jìn), 楊淵博, 羅江鋒, 張宇喆, 尹璐, 張硯, 李陽, 沈黎. 一種可見光遙感圖像候選目標(biāo)提取與分類方法[P]. 北京市: CN110008899B, 2021-02-26.
[16]王生進(jìn), 王晗. 行人檢測方法和裝置[P]. 北京市: CN109871792B, 2020-12-29.
[17]王生進(jìn), 李棟. 一種物體檢測方法及裝置[P]. 北京市: CN107545263B, 2020-12-15.
[18]王生進(jìn), 劉紫瓊. 一種基于區(qū)域特征的圖像檢索方法及系統(tǒng)[P]. 北京市: CN106886783B, 2020-11-10.
[19]何建偉, 王大力, 于紅洋, 李蒙, 王生進(jìn), 陳蕩蕩. 一種人臉活體檢測方法和裝置[P]. 北京市: CN106897657B, 2020-10-27.
[20]王生進(jìn), 趙炫. 一種人臉識別處理方法和系統(tǒng)[P]. 北京市: CN107025435B, 2020-06-23.
[21]王生進(jìn), 田露. 一種行人識別方法和裝置[P]. 北京市: CN106529442B, 2019-10-18.
[22]王生進(jìn), 舒晗. 人臉檢測方法及裝置[P]. 北京市: CN106951826B, 2019-09-20.
[23]王生進(jìn), 趙炫. 一種大流量通關(guān)快速身份核驗方法和系統(tǒng)[P]. 北京市: CN107066945B, 2019-06-18.
[24]王生進(jìn), 趙亞麗, 何建偉, 陳蕩蕩, 王大力, 程景春, 于紅洋, 余盛銘, 李蒙. 基于眼部信息的活體人臉檢測方法及裝置[P]. 北京市: CN105243378B, 2019-03-01.
[25]王生進(jìn), 陳蕩蕩, 何建偉, 程景春, 王大力, 趙亞麗, 于紅洋, 余盛銘, 李蒙. 防止照片攻擊的人臉識別方法及裝置[P]. 北京市: CN105488486B, 2018-10-30.
[26]王飛躍, 胡斌, 熊剛, 朱鳳華, 王生進(jìn). 一種基于視頻監(jiān)控圖像的行人檢測和計數(shù)方法[P]. 北京市: CN103646257B, 2017-06-16.
[27]成波, 王文軍, 張波, 王生進(jìn). 基于路面標(biāo)識識別違規(guī)駕駛行為的方法及系統(tǒng)[P]. 北京市: CN103116748B, 2016-03-23.
[28]李亞利, 王生進(jìn), 方馳, 丁曉青. 視覺廣告效果評估系統(tǒng)及方法[P]. 北京市: CN102542492B, 2015-02-18.
[29]林源, 王生進(jìn), 桂良琰, 丁曉青. 三維頭部模型重建方法[P]. 北京市: CN102663820B, 2014-10-22.
[30]何飛, 王生進(jìn), 蘇亞, 陳晨, 鄭良, 丁曉青. 圖像采集分析方法[P]. 北京市: CN102184405B, 2012-12-26.
[31]丁曉青, 谷軍霞, 吳佑壽, 王生進(jìn), 方馳, 劉長松. 一種行為描述的方法和裝置[P]. 北京市: CN101482928B, 2011-01-05.
[32]丁曉青, 雷云, 王生進(jìn), 熊斌, 方馳, 劉長松, 彭良瑞. 圖像匹配方法[P]. 北京市: CN100530222C, 2009-08-19.
[33]丁曉青, 徐劍, 吳佑壽, 王生進(jìn). 一種多視角運動目標(biāo)檢測、定位與對應(yīng)方法[P]. 北京市: CN100513997C, 2009-07-15.
[34]丁曉青, 方馳, 舒暢, 劉長松, 蔣焰, 王生進(jìn), 彭良瑞. 生物特征融合的身份識別和認(rèn)證方法[P]. 北京市: CN100356388C, 2007-12-19.
國外發(fā)明專利:
[1] In-spaceviewpointcontroldeviceforuseininformationvisualizationsystem,US Paten t No.6597380,2003
[2] Browsingsystemofe-documentsandbrowsingcontrolmethod,PCT Patent Pending,No.35001106,2002
[3] Browsingsystemandcontrolmethodforscanneddocuments,Japanese Patent Pending No.2001-377987,2001
[4] Informationrepresentationdeviceandrecordingprogrammedia,Japanese Patent No.3246464,2000
[5] Spatialviewpointcontroldevice,Japanese Patent No.3123501,2000.
[6] Imagecapturingdevice,controlmethod,andrecordingmedia,Japanese Patent Pending No.2000-339806,2000
[7] Imagerepresentationdeviceandrecordingmethod,Japanese Patent Pending No.11-164666,1999
[8] Imagecapturingmethodandgenerationdevice,Japanese Patent Pending No.11-367832,1999.
[9] Imagematerialrepresentation,devicerecordingmethod,andmedia,Japanese Patent Pending No.11-313535,1999
[10] Mediarepresentationdeviceandrecordingmediain 3D space,Japanese Patent Pending No.10-205954,1998
在IEEE Trans. SMC、PRL、ACM、自動化學(xué)報、中國圖像圖形學(xué)報等國際國內(nèi)重要刊物和CVPR, 即CVPR,ICPR, ICIP等國際重要學(xué)術(shù)會議發(fā)表論文90篇以上。
出版專著:
1.SunWeidong,WangShengjin,etc.(2007).The Hand book of Image Processing.Intheresea rcharea of Image Processing,Pressof ScientificIndustry,China,2007(inChinese)
代表性英文論文:
[1] Yifan Sun; Liang Zheng; Yali Li; Yi Yang; Qi Tian; Shengjin Wang. Learning Part-based Convolutional Features for Person Re-Identification. IEEE Trans. Pattern Anal. Mach. Intell. 43(3): 902-917 (2021)
[2] Jiahe Shi, Yali Li, Shengjin Wang. Partial Off-policy Learning: Balance Accuracy and Diversity for Human-Oriented Image Captioning. ICCV 2021, accepted.
[3] Xuege Hou, Yali Li, Shengjin Wang. Disentangled Representation for Age-Invariant Face Recognition: A Mutual Information Minimization Perspective. ICCV 2021, accepted.
[4] Takashi Isobe, Dong Li, Lu Tian, Weihua Chen, Yi Shan, Shengjin Wang. Towards Discriminative Representation Learning for Unsupervised Person Re-identification. ICCV 2021, accepted.
[5] Miao Hu, Yali Li, Lu Fang, Shengjin Wang. A2-FPN: Attention Aggregation Based Feature Pyramid Network for Instance Segmentation. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. pages 15343-15352, 2021.
[6] Zhenyu Wang, Yali Li, Ye Guo, Lu Fang, Shengjin Wang. Data-Uncertainty Guided Multi-Phase Learning for Semi-Supervised Object Detection. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. pages 4568-4577, 2021.
[7] Takashi Isobe, Xu Jia, Shuaijun Chen, Jianzhong He, Yongjie Shi, Jianzhuang Liu, Huchuan Lu, Shengjin Wang. Multi-Target Domain Adaptation with Collaborative Consistency Learning. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Pages 8187-8196, 2021.
[8] Takashi Isobe, Fang Zhu, Shengjin Wang. Frame-Rate-Aware Aggregation for Efficient Video Super-Resolution. ICASSP 2021: 1430-1434.
[9] Dong Li, Jia-Bin Huang, Yali Li, Shengjin Wang and Ming-Hsuan Yang, Progressive Representation Adaptation for Weakly Supervised Object Localization, IEEE Trans on Pattern Analysis and Machine Intelligence(PAMI), Page(s): 1424 – 1438, Volume: 42, Issue: 6 , June 1 2020. Print ISSN: 0162-8828, Online ISSN: 0162-8828, DOI: 10.1109/TPAMI.2019.2899839.
[10] Zhengshuai Wang, Jianqiang Wang, Yali Li, Shengjin Wang, Traffic Sign Recognition with Lightweight Two-Stage Model in Complex Scenes, IEEE Transactions on Intelligent Transportation Systems, 2020.
[11] Jingchun Cheng, Yuhui Yuan, Yali Li, Jingdong Wang, Shengjin Wang, Learning to Segment Video Object with Accurate Boundaries, IEEE Transactions on Multimedia, 2020.
[12] Isobe, Takashi, Li, Ya-Li and Wang, Shengjin, Intra-clip Aggregation for Video Person Re-identification, BMVC 2020.
[13] Ye Guo, Yali Li, Shengjin Wang. CS-R-FCN: Cross-Supervised Learning for Large-Scale Object Detection ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pages 2553-2557, 2020.
[14] Takashi Isobe, Jian Han, Fang Zhu, Yali Li, Shengjin Wang, Intra-clip Aggregation for Video Person Re-identification, ICIP 2020: 2336-2340.
[15] Takashi Isobe, Xu Jia, Shuhang Gu, Songjiang Li, Shengjin Wang, Qi Tian. Video Super-Resolution with Recurrent Structure-Detail Network In ECCV 2020.
[16] Zhongdao Wang, Liang Zheng, Yixuan Liu, Yali Li, Shengjin Wang. Towards Real-Time Multi-Object Tracking. In ECCV, pages 107-122, 2020.
[17] Zhongdao Wang, Jingwei Zhang, Liang Zheng, Yixuan Liu, Yifan Sun, Yali Li, Shengjin Wang. CycAs: Self-supervised Cycle Association for Re-identifiable Descriptions. In ECCV, pages 72-88, 2020.
[18] Zhengshuai Wang, Yali Li, Shengjin Wang, FIANET: Video Object Detection via Joint Feaure-Level and Instance-Level Aggregation, 2020 IEEE International Conference on Multimedia and Expo (ICME), pages 1-6, London, UK, July 6-10, 2020. Oral.
[19] Takashi Isobe, Songjiang Li, Xu Jia, Shanxin Yuan, Gregory Slabaugh, Chunjing Xu, Ya-Li Li, Shengjin Wang, Qi Tian. Video Super-resolution with Temporal Group Attention In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. pages 8008-8017, 2020.
[20] Lanqing He, Zhongdao Wang, Yali Li, Shengjin Wang, Softmax Dissection: Towards Understanding Intra- and Inter-class Objective for Embedding Learning, AAAI2020, February 7-12, 2020, Hilton New York, USA. Oral.
[21] Jingwei Zhang, Zhongdao Wang, Yali Li, Shengjin Wang, Node-Adaptive Multi-Graph Fusion using Extreme Value Theory, IEEE Signal Processing Letters, pp. 351-355, Print ISSN: 1070-9908, Online ISSN: 1558-2361, Digital Object Identifier: 10.1109/LSP.2020.2970811, 2020
[22] Jian Han, Yali Li, Shengjin Wang. Adaptively Leverage Unlabeled Tracklets Based on Part Attention Model for Few-Example Re-ID. IEEE Signal Processing Letters. Volume 27, pages 2074-2078, 2020.
[23] Xiudong Wang, Yali Li, Shaodi You, Hongdong Li, and Shengjin Wang, Unidirectional Representation-Based Efficient Dictionary Learning, Journal: IEEE Transactions on Circuits and Systems for Video Technology, Issue Date: JANUARY 2020, Volume: 30, Issue:1, On Page(s): 59-74, Print ISSN: 1051-8215, Online ISSN: 1558-2205, Digital Object Identifier: 10.1109/TCSVT.2018.2886600
[24] Han Wang, Yali Li, Shengjin Wang, R Fast Pedestrian Detection with Attention-Enhanced Multi-Scale RPN and Soft-Cascaded Decision Trees, IEEE Transactions on Intelligent Transportation Systems, vol 21, No. 12, pages 5086-5093, 2020.
[25] Xuan Zhao, Yali Li, Shengjin Wang, Face Quality Assessment via Semi-Supervised Learning, ICCPR2019 (2019 8th International Conference on Computing and Pattern Recognition), Beijing, China, 2019. (Best paper Award)
[26] Yali Zhao, Yali Li, Shengjin Wang, Open-World Person Re-identification with Deep Hash Feature Embedding, IEEE Signal Processing Letters, IEEE Signal Processing Letters On page(s): 1758—1762, VOL. 26, NO. 12, DECEMBER 2019
[27] Yali Li, Shengjin Wang, HAR-Net: Joint Learning of Hybrid Attention for Single-stage Object Detection, IEEE Transactions on Image Processing, pp. 3092-3103, Vol. 29, 2020.
[28] Ye Tian, Jingchun Cheng, Yali Li, Shengjin Wang, Secondary Information Aware Facial Expression Recognition, IEEE Signal Processing Letters, IEEE Signal Processing Letters On page(s): 1753—1757, VOL. 26, NO. 12, DECEMBER 2019.
[29] Jiahe Shi, Yali Li, Shengjin Wang, Cascade Attention: Multiple Feature Based Learning for Image Captioning, ICIP2019, Taipei, Taiwan, China, Sept. 22-25, 2019.
[30] Yue Zheng, Yali Li, Shengjin Wang, Intention Oriented Image Captions with Guiding Objects, CVPR2019, Long Beach, CA, USA, June, 2019.
[31] Yifan Sun, Qin Xu, Yali Li, Chi Zhang, Shengjin Wang*, Jian Sun, Learning Visibility-aware Part-level Features with Self-supervision for Partial Person Re-identification, CVPR2019, Long Beach, CA, USA, June, 2019.
[32] Zhongdao Wang, Shengjin Wang, Linkage Based Face Clustering via Graph Convolution Network, CVPR2019, Long Beach, CA, USA, June, 2019.
[33] Yuxuan Zhu, Yali Li, Shengjin Wang, Unsupervised Deep Hashing with Adaptive Feature Learning for Image Retrieval, IEEE Signal Processing Letters, IEEE Signal Processing Letters On page(s): 1—5, 2019. Print ISSN: 1070-9908 Online ISSN: 1558-2361 Digital Object Identifier: 10.1109/LSP.2019.2892233
[34] Jianqiang Wang, Yali Li, Shengjin Wang, A Highly Accurate Feature Fusion Network For Vehicle Detection In Surveillance Scenarios, BMVC2018, September 3, Newcastle, UK.
[35] Yifan Sun, Liang Zheng, Shengjin Wang, Beyond Part Models: Person Retrieval with Refined Part Pooling, ECCV2018, September, 2018. Munich, Germany.
[36] Qin Xu, Yifan Sun, Yali Li, Shengjin Wang, Improving Deep Representations with Feature Alignment Layer for Person Retrieval, ICPR2018, August 2018. (Best Paper Award)
[37] Lingxiao Wang, Yali Li, Shengjin Wang, Feature Learning For One-Shot Face Recognition, ICIP2018, October 7-10, 2018, Athens, Greece.
[38] Jingchun Cheng, Shengjin Wang, Ming-Hsuan Yang, Fast and Accurate Online Video Object Segmentation via Tracking Parts, CVPR2018, Jun 19, 2018 - Jun 21, 2018, Salt Lake City, USA
[39] Shu Han, Chen Dangdang, Li Yali, Wang Shengjin. A highly accurate facial region network for unconstrained face detection[C]// Image Processing(ICIP), 2017 IEEE International Conference on. IEEE, 2017:665-669.
[40] Dangdang Chen, Lanqing He, Shengming Yu, and Shengjin Wang. An Efficient and Accurate Face Verification Method Based on CNN Cascade Architeture. Proc of CAAI, 2017: 534-540.
[41] Jingchun Cheng, Shengjin Wang, Ming-Hsuan Yang, SegFlow: Joint Learning for Video Object Segmentation and Optical Flow, ICCV2017, Venice, Italy, Oct. 2017.
[42] Yifan Sun, Liang Zheng, Shengjin Wang, SVDNet for Pedestrian Retrieval, ICCV2017, Venice, Italy, Oct. 2017. Spotlight.
[43] Zhongdao Wang, Luming Tang, Xihui Liu, Zhuliang Yao, Shuai Yi, Jing Shao, Junjie Yan,Shengjin Wang, Hongsheng Li, Xiaogang Wang, Orientation Invariant Feature Embedding and Spatial Temporal Re-ranking for Vehicle Re-identification, ICCV2017, Venice, Italy, Oct. 2017.
[44] Jingchun Cheng, Sifei Liu, Yi-Hsuan Tsai, Wei-Chih Hung, Shalini De Mello, Jinwei Gu, Jan Kautz, Shengjin Wang, Ming-Hsuan Yang, Learning to Segment Instances in Videos with Spatial Propagation Network, The 2017 DAVIS Challengeon Video Object Segmentation - CVPR 2017 Workshops. Win 6th Place Award.
[45] Ziqiong Liu, Shengjin Wang, Qi Tian, Robust ImageGraph: Rank-Level Feature Fusion for Image Search, IEEE Transactions on Image Processing, pp. 3128-3141, Volume: 26, No.7, 2017.(SCI).
[46] Ruijie Yan, Liangrui Peng, Shanyu Xiao, Gang Yao, Primitive Representation Learning for Scene Text Recognition, CVPR 2021, 284-293
[47] Shanyu Xiao, Liangrui Peng, Ruijie Yan, Keyu An, Gang Yao, Jaesik Min, Sequential Deformation for Accurate Scene Text Detection. ECCV 2020, LNCS, volume 12374, 108-124
[48] Shanyu Xiao&, Liangrui Peng, Ruijie Yan&, Shengjin Wang, Deep Network with Pixel-Level Rectification and Robust Training for Handwriting Recognition, ICDAR 2019, 9-16. (ICDAR 2019 Best Student Paper Runner-Up Award)
[49]Zhaopeng Dou, Zhongdao Wang, Yali Li, Shengjin Wang, Identity-Seeking Self-Supervised Representation Learning for Generalizable Person Re-identification, ICCV2023. (Oral)
[50]Yue Zheng, Yali Li, Shengjin Wang, DivCon: Learning Concept Sequences for Semantically Diverse Image Captioning, ICASSP2023. (Oral)
[51]Peiyuan Zhi, Yali Li, Kaiyue Zhou, Shengjin Wang, Feature Decoupling And Uncertainty Estimation For 3d Object Detection, ICME 2023
[52]Zhenyu Wang, Yali Li, Xi Chen Ser-Nam Lim, Antonio Torralba, Hengshuang Zhao, Shengjin Wang, Detecting Everything in the OpenWorld: Towards Universal Object Detection, CVPR2023
[53]Yixuan Fan, Zhaopeng Dou, Yali Li and Shengjin Wang, Portrait Interpretation and a Benchmark, ICCPR2022
[54]Xin Liu, Yali Li, Shengjin Wang, Self-Supervised Learning via Maximum Entropy Coding, NeurIPS2022
[55]Yue Zheng, Yali Li, Shengjin Wang, Polishing Network for Decoding of Higher-Quality Diverse Image Captions, BMVC2022
[56] Yifan Liu, Yali Li, Shengjin Wang, Disentangling based Environment-Robust Feature Learning for Person ReID, BMVC2022
[57]Shijie Rao, Yidong Huang, Kaiyu Cui, and Yali Li*, Anti-spoofing face recognition using a metasurface-based snapshot hyperspectral image sensor, Optica Vol. 9, Issue 11, pp. 1253-1259 (2022) https://doi.org/10.1364/OPTICA.469653
[58]Zhaopeng Dou, Yali Li, Shengjin Wang, Reliability-Aware Prediction via Uncertainty Learning for Person Image Retrieval, ECCV2022
[59]Xinliu, Yali Li, Shengjin Wang, GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs, ECCV2022
[60]Jintao Xu, Yali Li*, Shengjin Wang. AdaZoom: Adaptive Zoom Network for Multi-Scale Object Detection in Large Scenes. IEEE Transactions on Multimedia. 2022
[61]Zhengshuai Wang, Jianqiang Wang, Yali Li, Shengjin Wang, Traffic Sign Recognition with Lightweight Two-Stage Model in Complex Scenes, IEEE Transactions on Intelligent Transportation Systems, Volume: 23, Issue: 2, On Page(s): 1121-1131, Publication Date: FEBRUARY 2022. Print ISSN: 1524-9050, Online ISSN: 1558-0016, Digital Object Identifier: 10.1109/TITS.2020.3020556
[62]Yali Li, Shengjin Wang, R(Det)$^2$: Randomized Decision Routing for Object Detection, CVPR2022, June 21 – 24, 2022, New Orleans, Louisiana, USA
[63]Zhenyu Wang, Yali Li, Shengjin Wang, Noisy Boundaries: Lemon or Lemonade for Semi-supervised Instance Segmentation?, CVPR2022, June 21 – 24, 2022, New Orleans, Louisiana, USA
[64] Dongchen Lu, Dongmei Li, Yali Li, Shengjin Wang, OSKDet: Orientation-sensitive Keypoint Localization for Rotated Object Detection, CVPR2022, June 21 – 24, 2022, New Orleans, Louisiana, USA
[65]Yali Li, Shengjin Wang, BooDet: Gradient Boosting Object Detection with Additive Learning Based Prediction Aggregation, IEEE Trans. On TIP, 2022, 31, 2620-2632
[66]Zhaopeng Dou, Zhongdao Wang, Yali Li, Shengjin Wang, PROGRESSIVE-GRANULARITY RETRIEVAL VIA HIERARCHICAL FEATURE ALIGNMENT FOR PERSON RE-IDENTIFICATION, ICASSP2022, May 22-27, Singapore
[67]Jian Han, Yali Li, Shengjin Wang, FEW-SHOT OBJECT DETECTION WITH LOCAL CORRESPONDENCE RPN AND ATTENTIVE HEAD, ICASSP2022, May 22-27, Singapore
[68]Han Wang, Yali Li, Shengjin Wang, CRPN: DISTINGUISH NOVEL CATEGORIES VIA CLASS-RELEVANT REGION PROPOSAL NETWORK FOR FEW-SHOT OBJECT DETECTION, ICASSP2022, May 22-27, Singapore
[69]Yuhao Lu, Yali Li, Shengjin Wang, Hybrid Physical Metric For 6-DoF Grasp Pose Detection, ICRA2022, May 23-27, 2022, Philadelphia PA, United States
[70]Yunzhong Hou, Zhongdao Wang, Shengjin Wang, Liang Zheng. Adaptive Affinity for Associations in Multi-Target Multi-Camera Tracking, Journal: IEEE Transactions on Image Processing, Publication Date: 2022, Volume: 31, On Page(s): 612-622, Print ISSN: 1057-7149, Online ISSN: 1941-0042, Digital Object Identifier: 10.1109/TIP.2021.3131936
[71]Jian Han, Yali Li, Shengjin Wang, Delving into Probabilistic Uncertainty for Unsupervised Domain Adaptive Person Re-Identification, AAAI2022, Feb.22-March 1, 2022, Virtual
[72]Zhongdao Wang, Yali Li, Shengjin Wang, Do Different Tracking Tasks Require Different Appearance Models?, NIPS2021
[73]Zhenyu Wang, Yali Li, Sehngjin Wang, Combating Noisy Proposals for Semi-supervised Object Detection, NIPS2021
[74]Zhang, Jinzhi; ji, mengqi; Wang, Guangyu; Zhiwei, Xue; Wang, Shengjin; FANG, Lu, SurRF: Unsupervised Multi-view Stereopsis by Learning Surface Radiance Field, PAMI, 2021
[75]Zhengyue, Yali Li, Shengjin Wang. “DivCon: Learning Concept Sequences for Semantically Diverse Image Captioning”;IEEE ICASSP2023, Oral
[76]Zhaopeng Dou, Zhongdao Wang, Yali Li, Shengjin Wang, Identity-Seeking Self-Supervised Representation Learning for Generalizable Person Re-identification, ICCV2023, Oral
[77]Yuhao Lu, Yixuan Fan, Beixing Deng, Fangfu Liu, Yali Li and Shengjin Wang. " VL-Grasp: a 6-Dof Interactive Grasp Policy for Language-Oriented Objects in Cluttered Indoor Scenes." 2023 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) in Detroit, US. IEEE, 2023
[78]Yixuan Fan, Xin Liu, Yali Li and Shengjin Wang. "Look Before You Drive: Boosting Trajectory Forecasting via Imagining Future." 2023 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) in Detroit, US. IEEE, 2023
[79]Zhenyu Wang, Yali Li, Xi Chen, Hengshuang Zhao, Shengjin Wang, Uni3DETR: Unified 3D Detection Transformer, NeurIPS2023, December 8-16, 2023, New Orleans, the USA
[80]Jintao Xu, Yali Li*, Shengjin Wang. AdaZoom: Towards scale-aware large scene object detection. IEEE Transactions on Multimedia. 25: 4598-4609, 2023. DOI: 10.1109/TMM.2022.3178871
[81]Zhongdao Wang, Jinglu Wang, Yali Li, Yan Lu, Shengjin Wang. Unsupervised Temporal Correspondence Learning for Unified Video Object Removal. IEEE Transactions on Image Processing (accepted)
[82]Yujun Cheng, Zhewei Zhang, Shengjin Wang, Fed-SDS: Adaptive Structured Dynamic Sparsity for Federated Learning under Heterogeneous Clients, ICASSP2024, April 14-19, 2024, Seoul, Korea
[83]Yujun Cheng, Zhewei Zhang, Shengjin Wang, RCIF: Towards Robust Distributed DNN Collaborative Inference under Highly Lossy Networks, ICASSP2024, April 14-19, 2024, Seoul, Korea
[84]Yali Li, Shengjin Wang, BooDet: Gradient Boosting Object Detection with Additive Learning Based Prediction Aggregation, IEEE Trans. On TIP, 2022, 31, 2620-2632.
[85]Dongchen Lu, Dongmei Li, Yali Li, Shengjin Wang, OSKDet: Orientation-sensitive Keypoint Localization for Rotated Object Detection, CVPR2022, June 21 – 24, 2022, New Orleans, Louisiana, USA
[86]Zhenyu Wang, Yali Li, Shengjin Wang, Noisy Boundaries: Lemon or Lemonade for Semi-supervised Instance Segmentation?, CVPR2022, June 21 – 24, 2022, New Orleans, Louisiana, USA
[87]Yali Li, Shengjin Wang, R(Det)$^2$: Randomized Decision Routing for Object Detection, CVPR2022, June 21 – 24, 2022, New Orleans, Louisiana, USA
[88]Zhengshuai Wang, Jianqiang Wang, Yali Li, Shengjin Wang, Traffic Sign Recognition with Lightweight Two-Stage Model in Complex Scenes, IEEE Transactions on Intelligent Transportation Systems, Volume: 23, Issue: 2, On Page(s): 1121-1131, Publication Date: FEBRUARY 2022. Print ISSN: 1524-9050, Online ISSN: 1558-0016, Digital Object Identifier: 10.1109/TITS.2020.3020556.
[89]Jintao Xu, Yali Li*, Shengjin Wang. AdaZoom: Adaptive Zoom Network for Multi-Scale Object Detection in Large Scenes. IEEE Transactions on Multimedia. 2022.
[90]Xinliu, Yali Li, Shengjin Wang, GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs, ECCV2022
[91]Zhaopeng Dou, Yali Li, Shengjin Wang, Reliability-Aware Prediction via Uncertainty Learning for Person Image Retrieval, ECCV2022
[92]Shijie Rao, Yidong Huang, Kaiyu Cui, and Yali Li*, Anti-spoofing face recognition using a metasurface-based snapshot hyperspectral image sensor, Optica Vol. 9, Issue 11, pp. 1253-1259 (2022) https://doi.org/10.1364/OPTICA.469653
[93]Yifan Liu, Yali Li, Shengjin Wang, Disentangling based Environment-Robust Feature Learning for Person ReID, BMVC2022
[94]Yue Zheng, Yali Li, Shengjin Wang, Polishing Network for Decoding of Higher-Quality Diverse Image Captions, BMVC2022.
[95]Xin Liu, Yali Li, Shengjin Wang, Self-Supervised Learning via Maximum Entropy Coding, NeurIPS2022. Spotlight
[96]Yixuan Fan, Zhaopeng Dou, Yali Li and Shengjin Wang, Portrait Interpretation and a Benchmark, International Conference on Computing and Pattern Recognition 2022 (ICCPR2022). Best oral presentation
[97]Shengming Yu, Shengjin Wang, Consistency Mean-Teaching for Unsupervised Domain Adaptive Person Re-identification, ICIGP2022, 獲Best Paper Award
[98] Zhenyu Wang, Yali Li1, Xi Chen Ser-Nam Lim, Antonio Torralba, Hengshuang Zhao, Shengjin Wang, Detecting Everything in the OpenWorld: Towards Universal
[99]Zhengyue, Yali Li, Shengjin Wang. “DivCon: Learning Concept Sequences for Semantically Diverse Image Captioning”. IEEE ICASSP2023, Oral, June 4-9, 2023,Rhodes Island, Greece.
[100]王生進(jìn),豆朝鵬,樊懿軒,李亞利,ReID2.0:從行人再識別走向人像態(tài)勢計算,中國圖象圖形學(xué)報,28(05):1326-1345,2023)[DOI:10. 11834/jig. 220700],文章編號:1006-8961(2023)05-1326-20.
[101]Zhaopeng Dou, Zhongdao Wang, Yali Li, Shengjin Wang, Identity-Seeking Self-Supervised Representation Learning for Generalizable Person Re-identification, ICCV2023, Oral, October 2-6, 2023, Paris, France.
[102]Yuhao Lu, Yixuan Fan, Beixing Deng, Fangfu Liu, Yali Li and Shengjin Wang. " VL-Grasp: a 6-Dof Interactive Grasp Policy for Language-Oriented Objects in Cluttered Indoor Scenes." 2023 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) in Detroit, US. IEEE, 2023.
[103]Yixuan Fan, Xin Liu, Yali Li and Shengjin Wang. "Look Before You Drive: Boosting Trajectory Forecasting via Imagining Future." 2023 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) in Detroit, US. IEEE, 2023
[104]Zhenyu Wang, Yali Li, Xi Chen, Hengshuang Zhao, Shengjin Wang, Uni3DETR: Unified 3D Detection Transformer, NeurIPS2023, December 8-16, 2023, New Orleans, the USA
[105]Jintao Xu, Yali Li*, Shengjin Wang. AdaZoom: Towards scale-aware large scene object detection. IEEE Transactions on Multimedia. 25: 4598-4609, 2023. DOI: 10.1109/TMM.2022.3178871
[106]Zhongdao Wang, Jinglu Wang, Yali Li, Yan Lu, Shengjin Wang. Unsupervised Temporal Correspondence Learning for Unified Video Object Removal. IEEE Transactions on Image Processing (accepted)
[107]Yujun Cheng, Zhewei Zhang, Shengjin Wang, Fed-SDS: Adaptive Structured Dynamic Sparsity for Federated Learning under Heterogeneous Clients, ICASSP2024, April 14-19, 2024, Seoul, Korea
[108]Yujun Cheng, Zhewei Zhang, Shengjin Wang, RCIF: Towards Robust Distributed DNN Collaborative Inference under Highly Lossy Networks, ICASSP2024, April 14-19, 2024, Seoul, Korea
[109] Liang Zheng, Shengjin Wang, Liyue Shen, Lu Tian, Qi Tian, S Scalable Person Re-identification: A Benchmark, ICCV2015, Santiago, Chile, Dec.2015, Accepted
[110] Xu Zhang, Felix Xinnan Yu, Ruiqi Guo, Sanjiv Kumar, Shengjin Wang, Shih-Fu Chang, Fast Orthogonal Projection Based on Kronecker Product, ICCV2015, Santiago, Chile, Dec.2015, Accepted
[111] Ziqiong Liu, Shengjin Wang, Qi Tian, Fine-residual VLAD for image retrieval, Neurocomputing, 2015, Accepted
[112] Dong Li, Yali Li, Shengjin Wang, Selective Parts for Fine-Grained Recognition, In Proceedings of International Conference on Image Processing (ICIP2015), Quebec, Canada, Sept. 2015, will be published.
[113] Taiqing Wang, Shaogang Gong, Xiatian Zhu,Shengjin Wang, Re-Identification by Discriminative Selection in Video Ranking, IEEE Transactions on Pattern Recognition and Machine Intelligence, 2015, submitted to PAMI 2014 (Now Major)
[114] Yali Li, Shengjin Wang, Qi Tian, Xiaoqing Ding, A Boosting Approach to Exploit Instance Correlations for Multi-Instance Classification, IEEE Transactions on Neural Networks and Learning Systems, 2015 (Accepted)
[115] Yali Li, Shengjin Wang, Qi Tian, Xiaoqing Ding, Feature representation for statistical learning based object detection: a review, Pattern Recognition, pp.3542-3559, vol.48, 2015
[116] Yali Li, Shengjin Wang, Qi Tian, Xiaoqing Ding, A survey of recent advances in visual feature detection, Neurocomputing, Pages 736–751, Volume 149, Part B, 3 February 2015
[117] Lu Tian, Shengjin Wang, Person Re-identification as Image Retrieval Using Bag of Ensemble Colors, IEICE Transactions on Information and Systems, Vol.E98-D,No.1,pp. 180-188, Jan. 2015 (SCI)
[118] Liang Zheng, Shengjin Wang, Lu Tian, Fei He, and Qi Tian, "Black Sheep Out: Query Adaptive Fusion for Image Search and Person Re-identification", International Conference on Computer Vision and Pattern Recognition (CVPR2015), pp. 1741-1750, in Boston, USA, June, 2015.
[119] Xu Zhang, Fei He, Lu Tian, Shengjin Wang, Cognitive Pedestrian Detector: Adapting Detector to Specific Scene by Transferring Attributes, Neurocomputing, Pages 800-810, Volume 149, Part B, 3 February 2015
[120] Jie Liu, Shengjin Wang, Salient Region Detection via Simple Local and Global Contrast Representation, Neurocomputing, Pages 435-443, Volume 147, 5 January 2015
[121] Fei He and Shengjin Wang, Beyond χ2 Difference: Learning Optimal Metric for Boundary Detection, IEEE Signal Processing Letters, Vol 22, No. 1, pp. 40-44, Jan. 2015
[122] Yali Li, Shengjin Wang, Qi Tian, Xiaoqing Ding, Learning Cascaded Shared-Boost Classifiers for Part-based Object Detection, IEEE Transactions on Image Processing, pp.1858-1871,Volume:23,No.4, 2014. DOI: 10.1109/ TIP.2014.2307432(SCI)
[123] Taiqing Wang, Shaogang Gong, Shengjin Wang, Discriminative Video Matching for Person Re-Identication, European Conference on Computer Vision (ECCV2014), September 8-12, 2014, pp.688-703, Zurich, Switzerland.
[124] Zheng L, Wang S, Liu Z, Tian Q. Fast Image Retrieval: Query Pruning and Early Termination. IEEE Transactions on Multimedia, 2014, 17(5): 648-659. (SCI源刊,影響因子1.776)
[125] Liang Zheng, Shengjin Wang, Peizhen Guo, Hanyue Liang, and Qi Tian, Tensor Index for Large Scale Image Retrieval, Multimedia Systems, Oct. 2014 (SCI源刊,影響因子0.443;EI收錄,檢索號:20144300116846)
[126] Ziqiong Liu, Shengjin Wang, Liang Zheng, Qi Tian, Visual Reranking with improved image graph, ICASSP2014(International Conference On Acoustics Speech and Signal Processing), IEEE catalog number: CFP14ICA-USB,pp.6939-6943,4-9 May 2014 in Florence, Italy. ISBN: 978-1-4799-2892-7
[127] Liang Zheng, Shengjin Wang, and Qi Tian, Lp-norm IDF for Scalable Image Retrieval, IEEE Transactions on Image Processing, Vol 23, No. 8, pp. 3604-3617, June, 2014.
[128] Liang Zheng, Shengjin Wang, and Qi Tian, Coupled Binary Embedding for Scalable Image Retrieval, IEEE Transactions on Image Processing, Vol 23, No. 8, pp. 3368-3380, June, 2014.
[129] Yuan LIN, Shengjin Wang, Pose-free Face Swapping Based on a Deformable 3D Shape Morphable Model, IEICE Transactions on Information and Systems, pp. 305-314,Vol.E97-D,No.2, Feb. 2014 (SCI)
[130] Taiqing Wang, Shengjin Wang, Xiaoqing Ding,Detecting Human Action as Spatio-Temporal Tube of Maximum Mutual Information,IEEE Transactions on Circuits and Systems for Video Technology, pp.277-290, Vol.24, No.2, 2014, DOI:10.1109/TCSVT.2013.2276856 (SCI)
[131] Liang Zheng, Shengjin Wang, Ziqiong Liu, Qi Tian,Packing and Padding: Coupled Multi-index for Accurate Image Retrieval, CVPR2014, pp. 1947-1954, in Columbus, Ohio, USA, June, 2014
[132] Liang Zheng, Shengjin Wang, Ziqiong Liu, Qi Tian,Bayes Merging of Multiple Vocabularies for Scalable Image Retrieval, CVPR2014, pp. 1963-1970, in Columbus, Ohio, USA, June, 2014
[133] Liang Zheng, Shengjin Wang, Ziqiong Liu, Qi Tian. Lp-norm IDF for large scale image search. IEEE Conference on Computer Vision and Pattern Recognition (CVPR2013), pp. 1626-1633, June 23-28, 2013,Portland, OR, United states, EI 20134616982674
[134] Liang Zheng, Shengjin Wang. Visual phraselet: refining spatial constraints for large scale image search. IEEE Signal Processing Letters, Vol. 20, No. 4, pp. 391-394, April, 2013.
[135] Gu Junxia, Ding Xiaoqing, Wang Shengjin, Wu Youshou. Action and gait recognition from recovered 3D human joints. IEEE Transactions on Systems, Man, and Cybernetics, Part B,Vol.40, No.4, pp.1021-1033, August, 2010 (SCI源刊). SCI 656PJ
[136] Yali Li, Shengjin Wang, and Xiaoqing Ding, Person-Independent Head Pose Estimation Based On Random Forrest Regression. In Proceedings of International Conference on Image Processing (ICIP2010), pp.1521-1524, September 26-29, 2010, Hong Kong. EI 20110213575002, Inspec 11690716
[137] Yali Li, Shengjin Wang, Xiaoqing Ding, Eye/eyes tracking based on a unified deformable template and particle filtering, Pattern Recognition Letters, Volume: 31, Issue: 11, pp.1377-1387, AUG 2010 . SCI: 000279834800018, or SCI: IDS Number: 624QO。SCI 624QO
[138] Yun Lei, Xiaoqing Ding, and Shengjin Wang. Visual Tracker Using Sequential Bayesian Learning: Discriminative, Generative and Hybrid, IEEE Trans. on Systems, Man And Cybernetics-Part B, Vol.38, No.6, pp.1578-1591, December, 2008。SCI 378GZ
[139]WANGShengjin,HUBin,DINGXiaoqing,LIYali, Eye FeatureExtractionBasedon Modified ParabolicHough Transform,Journal o fTsinghua Univ(Sci&.Tech).2010.pp.101-104,Vol.50,No.1
[140]XuanZhao,ShengjinWang,andXiaoqingDing,“ADynamic Generating GraphicalModelfor Point-SetsMatching,”Applied MathematicsandComputation(AMC),vol.185,issue2,pp.1109-1119,15Feb.2007,Elsevier.ISSN0096-3003
[141]ShengjinWang,YaolinTan,JunZhou,TaoWuandWeiLin,CollaborativeMRWorkspacewithShared3DVisionBasedonStereoVideoTransmission,SceneReconstruction,PoseEstimationandTracking,I-TechEducationandPublishing,Vienna,Austria,pp.133-154,June2007
[142]WenhaoLu,ShengjinWang,XiaoqingDing,Partdetection,descriptionandselectionbasedonhiddenconditionalrandomfields,accepted,willbepublishedinICPR2010.
[143]ChenhuiZhou,ShengjinWang,XiaoqingDing,HumanDetectionBasedonFusionofHistogramsofOrientedGradientsandMainPartialFeatures,inproceedingsofCISP2009,pp.1066-1070.
[144]TaoWu,XiaoqingDing,ShengjinWang,VideoObjectTrackingusingImprovedChamferMatchingandCondensationParticleFilter,ImageProcessing:MachineVisionApplications,SPIE2008,ImageProcessing:MachineVisionApplications,2008,681304-681304-10 (2008).SanJose Marriottand SanJose Convention Center,SanJose,California,USA,Jan27-31,2008
[145]TaoWu,XiaoqingDing,ShengjinWang,VideoTrackingusingImprovedChamferMatchingandParticleFilter,InternationalConferenceonComputationalIntelligenceandMultimediaApplications2007,(ICCIMA2007),Vol.3,Pages169-173,2007。Mepco Schlenk Engineering College,Sivakasi,Tamilnadu,India,Dec13-15,2007
[146]ZhiZeng,ShengjinWang,andXiaoqingDing,“Real-timevehicledetectionandtracking based on trafficsceneanalysis,”Proc.ofSPIE-IS&TElectronicImaging,SPIEVol.6503.MachineVisionApplicationsinIndustrialInspectionXV,pp.65030M-1-65030M-9,Feb.17,2007
[147]XuJian,DingXiaoqing,Wang,Shengjin;Wu,Youshou,“Multi-viewmovinghumandetectionandcorrespondencebasedonobjectoccupancyrandomfield”,4thInternationalSymposiumonNeuralNetworks(ISNN2007),LectureNotesinComputerScience,Jun,2007,Vol.4493,pp.1033-1042
[148]LeiYun,DingXiaoqing,WangShengjin,“Adaptivesparsevector trackingviaonline Bayesianlearning”,IWICPA2006,LectureNotesinComputerScience,Vol.4153LNCS,pp.35-45,2006,Xian,CHINA
[149]ZhiZeng,ShengjinWang,andXiaoqingDing,“Object Detectionvia Fusionof Global Classifierand Part-BasedClassifier,”International Symposiumon NeuralNetworks2006,LNCS,2006,3972:429-435.
[150]YunLei,XiaoqingDing,and ShengjinWang,“AdaBoost Tracker Embeddedin Adaptive Particle Filtering,”ProceedingsofICPR2006,vol.4,pp.939–943,Hongkong,Aug.2006
[151]ShengjinWang,YaolinTan,andXiaoqingDing,“AFramework of Collaborative Workspace Basedon Multi-StereoVisionandSharedMixedReality,”ProceedingsofEdutainment’2006,LNCS,Volume3942/2006,DOI:10.1007/11736639_146,pp.1161–1170,LNCS,ISBN:3-540-33423-8SCI:BEM03,EI:062910004939,ISTP:BEM03
中文期刊論文:
[1]張永飛, 楊航遠(yuǎn), 張雨佳, 豆朝鵬, 廖勝才, 鄭偉詩, 張史梁, 葉茫, 晏軼超, 李俊杰, 王生進(jìn). 行人再識別技術(shù)研究進(jìn)展[J]. 中國圖象圖形學(xué)報, 2023, 28 (06): 1829-1862.
[2]王生進(jìn) , 豆朝鵬 , 樊懿軒 , 李亞利 . ReID2.0:從行人再識別走向人像態(tài)勢計算[J]. 中國圖象圖形學(xué)報, 2023, 28 (05): 1326-1345.
[3]蘇光大, 王生進(jìn). GB/T 41786-2022《公共安全 生物特征識別 術(shù)語》國家標(biāo)準(zhǔn)解讀[J]. 中國安全防范技術(shù)與應(yīng)用, 2023, (01): 26-30.
[4]吳曉雨, 蒲禹江, 王生進(jìn), 劉子豪. 基于語義嵌入學(xué)習(xí)的特類視頻識別[J]. 電子學(xué)報, 2023, 51 (11): 3225-3237.
[5]劉祎璠, 王生進(jìn), 趙軍, 張來清, 楊旭. 基于自主AI芯片的多算法融合應(yīng)用全流程處理效率優(yōu)化及實戰(zhàn)應(yīng)用[J]. 中國安全防范技術(shù)與應(yīng)用, 2021, (06): 14-19.
[6]羅常偉, 於俊, 于靈云, 李亞利, 王生進(jìn). 三維人臉識別研究進(jìn)展綜述[J]. 清華大學(xué)學(xué)報(自然科學(xué)版), 2021, 61 (01): 77-88.
[7]劉宏馬, 王生進(jìn). 基于匹配濾波器和度量學(xué)習(xí)的腦電信號分類[J]. 清華大學(xué)學(xué)報(自然科學(xué)版), 2021, 61 (03): 248-253.
[8]吳曉雨, 顧超男, 王生進(jìn). 多模態(tài)特征融合與多任務(wù)學(xué)習(xí)的特種視頻分類[J]. 光學(xué)精密工程, 2020, 28 (05): 1177-1186.
[9]李曉斌, 江碧濤, 王生進(jìn). 光學(xué)遙感圖像場景分類技術(shù)綜述和比較[J]. 無線電工程, 2019, 49 (04): 265-271.
[10]楊毅, 顏歷, 王生進(jìn), 喬飛. 基于媒體認(rèn)知課程的人工智能人才培養(yǎng)方法探索[J]. 計算機(jī)教育, 2018, (06): 163-166.
[11]康凱, 王重道, 王生進(jìn), 范英. 面向人口信息人像比對應(yīng)用的人像比對算法研究[J]. 信息網(wǎng)絡(luò)安全, 2017, (12): 80-84.
[12]王生進(jìn). 計算機(jī)視覺的發(fā)展之路[J]. 人工智能, 2017, (06): 8-13.
[13]楊毅, 鐘嫻, 喬飛, 王生進(jìn), 丁文浩. 媒體認(rèn)知課程中的智能感知技術(shù)教學(xué)方法探究[J]. 計算機(jī)教育, 2017, (09): 180-182.
[14]楊毅, 鐘嫻, 周天宇, 喬飛, 王生進(jìn). 媒體認(rèn)知中的人工智能技術(shù)教學(xué)方法探究[J]. 計算機(jī)教育, 2017, (07): 155-158.
[15]劉杰, 王生進(jìn). 基于邊界擴(kuò)展的圖像顯著區(qū)域檢測[J]. 清華大學(xué)學(xué)報(自然科學(xué)版), 2017, 57 (01): 72-78.
[16]楊毅, 鐘嫻, 徐淑正, 喬飛, 王生進(jìn). 媒體認(rèn)知中的感知計算教學(xué)方法及平臺建設(shè)研究[J]. 計算機(jī)教育, 2016, (12): 159-162.
[17]張旭, 王生進(jìn). 基于自然語言處理的特定屬性物體檢測[J]. 清華大學(xué)學(xué)報(自然科學(xué)版), 2016, 56 (11): 1137-1142.
[18]劉杰, 王生進(jìn). 融合聚類與排序的圖像顯著區(qū)域檢測[J]. 清華大學(xué)學(xué)報(自然科學(xué)版), 2016, 56 (09): 913-919.
[19]何友, 朱揚勇, 趙鵬, 柴勇, 廖志成, 周偉, 周向東, 王海鵬, 汪衛(wèi), 熊赟, 許舟軍, 彭煊, 孟暉, 王生進(jìn). 國防大數(shù)據(jù)概論[J]. 系統(tǒng)工程與電子技術(shù), 2016, 38 (06): 1300-1305.
[20]楊毅, 徐淑正, 喬飛, 王靖淇, 王生進(jìn). 媒體認(rèn)知實驗教學(xué)理念與實踐研究[J]. 計算機(jī)教育, 2015, (15): 108-110.
[21]楊毅, 徐淑正, 喬飛, 王靖淇, 王生進(jìn). 媒體認(rèn)知實驗教學(xué)改革研究與探索[J]. 計算機(jī)教育, 2015, (09): 107-109.
[22]王泰青, 王生進(jìn). 基于中層時空特征的人體行為識別[J]. 中國圖象圖形學(xué)報, 2015, 20 (04): 520-526.
[23]楊毅, 徐淑正, 喬飛, 王靖淇, 王生進(jìn). 媒體認(rèn)知實驗課程改革與實踐[J]. 計算機(jī)教育, 2015, (05): 103-106.
[24]熊祺, 張旭, 王生進(jìn). 基于兩級時空隨機(jī)取樣的背景建模算法[J]. 航天醫(yī)學(xué)與醫(yī)學(xué)工程, 2014, 27 (02): 107-112.
[25]林源, 梁舒, 王生進(jìn). 基于非剛性ICP的三維人臉數(shù)據(jù)配準(zhǔn)算法[J]. 清華大學(xué)學(xué)報(自然科學(xué)版), 2014, 54 (03): 334-340.
[26]鹿文浩, 王生進(jìn). 魯棒的車載攝像頭對向車輛檢測與跟蹤方法[J]. 清華大學(xué)學(xué)報(自然科學(xué)版), 2013, 53 (11): 1509-1514.
[27]張旭, 李亞利, 陳晨, 王生進(jìn), 丁曉青. 嵌入式駕駛員狀態(tài)檢測算法的實現(xiàn)與優(yōu)化[J]. 自動化學(xué)報, 2012, 38 (12): 2014-2022.
[28]王泰青, 王生進(jìn), 丁曉青. 基于最大互信息區(qū)域跟蹤的人體行為檢測算法[J]. 自動化學(xué)報, 2012, 38 (12): 2023-2031.
[29]林源, 桂良琰, 王生進(jìn), 丁曉青. 基于真實感三維頭重建的人臉替換[J]. 清華大學(xué)學(xué)報(自然科學(xué)版), 2012, 52 (05): 602-606.
[30]鹿文浩, 李亞利, 王生進(jìn), 丁曉青. 基于部件的三維目標(biāo)檢測算法新進(jìn)展[J]. 自動化學(xué)報, 2012, 38 (04): 497-506.
[31]何飛, 李亞利, 鹿文浩, 王生進(jìn), 丁曉青. 多方向線積分的梯度特征[J]. 中國圖象圖形學(xué)報, 2011, 16 (12): 2217-2222.
[32]林源, 林茜, 湯鋒, 唐亮, 王生進(jìn). 匹配圖像與3維模型特征點的真實感3維頭重建[J]. 中國圖象圖形學(xué)報, 2011, 16 (10): 1876-1882.
[33]熊斌, 丁曉青, 王生進(jìn). 基于三維模型的前視紅外目標(biāo)匹配識別方法[J]. 激光與紅外, 2011, 41 (03): 344-350.
[34]周晨卉, 王生進(jìn), 丁曉青. 基于局部特征級聯(lián)分類器和模板匹配的行人檢測[J]. 中國圖象圖形學(xué)報, 2010, 15 (05): 824-829.
[35]谷軍霞, 丁曉青, 王生進(jìn). 基于人體行為3D模型的2D行為識別[J]. 自動化學(xué)報, 2010, 36 (01): 46-53.
[36]李亞利, 王生進(jìn), 胡斌, 丁曉青. 基于改進(jìn)型拋物線Hough變換的眼睛特征提取[J]. 清華大學(xué)學(xué)報(自然科學(xué)版), 2010, 50 (01): 100-103.
[37]胡斌, 王生進(jìn), 丁曉青. 基于部位檢測和子結(jié)構(gòu)組合的行人檢測方法[J]. 計算機(jī)科學(xué), 2009, 36 (11): 242-246.
[38]胡斌, 王生進(jìn), 丁曉青. 基于云模型的駕駛員駕駛狀態(tài)評估方法[J]. 清華大學(xué)學(xué)報(自然科學(xué)版), 2009, 49 (10): 1614-1618.
[39]黃文韻, 馬惠敏, 王生進(jìn). 海面背景紅外目標(biāo)的識別算法[J]. 清華大學(xué)學(xué)報(自然科學(xué)版), 2009, 49 (10): 1609-1613.
[40]胡斌, 王生進(jìn), 丁曉青. 基于云模型的駕駛員駕駛狀態(tài)評估方法[J]. 清華大學(xué)學(xué)報(自然科學(xué)版)網(wǎng)絡(luò).預(yù)覽, 2009, 49 (10): 39-43.
[41]黃文韻, 馬惠敏, 王生進(jìn). 海面背景紅外目標(biāo)的識別算法[J]. 清華大學(xué)學(xué)報(自然科學(xué)版)網(wǎng)絡(luò).預(yù)覽, 2009, 49 (10): 34-38.
[42]徐劍, 丁曉青, 王生進(jìn), 吳佑壽. 一種融合局部紋理和顏色信息的背景減除方法[J]. 自動化學(xué)報, 2009, 35 (09): 1145-1150.
[43]徐劍, 丁曉青, 王生進(jìn), 吳佑壽. 多視角多行人目標(biāo)檢測、定位與對應(yīng)算法[J]. 清華大學(xué)學(xué)報(自然科學(xué)版), 2009, 49 (08): 1139-1143.
[44]徐劍, 丁曉青, 王生進(jìn), 吳佑壽. 多視角多行人目標(biāo)檢測、定位與對應(yīng)算法[J]. 清華大學(xué)學(xué)報(自然科學(xué)版)網(wǎng)絡(luò).預(yù)覽, 2009, 49 (08): 1139-1143.
[45]張應(yīng)麗, 王建華, 王生進(jìn). 駕駛員面部特征點定位方法研究[J]. 北京機(jī)械工業(yè)學(xué)院學(xué)報, 2009, 24 (01): 4-7.
[46]谷軍霞, 丁曉青, 王生進(jìn). 行為分析算法綜述[J]. 中國圖象圖形學(xué)報, 2009, 14 (03): 377-387.
[47]包英澤, 王生進(jìn), 何飛. 基于聚集疑似目標(biāo)的快速TBD弱小多目標(biāo)檢測方法[J]. 激光與紅外, 2008, (11): 1136-1140+1148.
[48]張潔穎, 王生進(jìn), 丁曉青. 基于視頻圖像處理的交通流檢測系統(tǒng)[J]. 電視技術(shù), 2008, (06): 68-70+92.
[49]徐劍, 丁曉青, 王生進(jìn). 基于目標(biāo)存在概率場的多視角運動目標(biāo)檢測與對應(yīng)算法[J]. 自動化學(xué)報, 2008, (05): 609-612.
[50]谷軍霞, 丁曉青, 王生進(jìn). 基于半監(jiān)督聚類的3維肢體分割算法[J]. 中國圖象圖形學(xué)報, 2008, (03): 558-565.
[51]李同治, 丁曉青, 王生進(jìn). 利用級聯(lián)SVM的人體檢測方法[J]. 中國圖象圖形學(xué)報, 2008, (03): 566-570.
曹[52]雷云, 丁曉青, 王生進(jìn). 嵌入粒子濾波中的AdaBoost跟蹤器[J]. 清華大學(xué)學(xué)報(自然科學(xué)版), 2007, (07): 1141-1143.[52] 王生進(jìn) 高臨場感空間的實現(xiàn)——從虛擬現(xiàn)實走向復(fù)合現(xiàn)實 中國教育網(wǎng)絡(luò) 2007-03-05
[53]趙炫, 王生進(jìn), 丁曉青. 基于概率圖模型技術(shù)的柱面全景圖生成算法[J]. 清華大學(xué)學(xué)報(自然科學(xué)版), 2006, (07): 1263-1266.
[54]黃英,丁曉青,王生進(jìn). 基于Markov隨機(jī)場的三維物體識別算法[J]. 清華大學(xué)學(xué)報(自然科學(xué)版), 2005, (01): 28-32.
中文會議論文:
[1]林源, 王生進(jìn) & 丁曉青. (2010). 基于正交圖像的全自動三維頭部重建. (eds.) 圖像圖形技術(shù)研究與應(yīng)用(2010) (pp.247-253).
[2]周晨卉, 王生進(jìn) & 丁曉青. (2009). 基于組合特征和AdabOost級聯(lián)分類器的行人檢測. (eds.) 圖像圖形技術(shù)研究與應(yīng)用2009——第四屆圖像圖形技術(shù)與應(yīng)用學(xué)術(shù)會議論文集 (pp.163-167).
[3]張潔穎, 王生進(jìn) & 丁曉青. (2008). 基于車輛軌跡的車道線檢測與劃分. (eds.) 圖像圖形技術(shù)與應(yīng)用進(jìn)展——第三屆圖像圖形技術(shù)與應(yīng)用學(xué)術(shù)會議論文集 (pp.141-145).
[4]周國強, 王生進(jìn) & 丁曉青. (2005). 基于區(qū)域質(zhì)量的JPEG2000圖像壓縮改進(jìn)方案. (eds.) 第十二屆全國圖象圖形學(xué)學(xué)術(shù)會議論文集 (pp.67-71).
[5]趙炫, 王生進(jìn) & 丁曉青. (2005). 一種應(yīng)用于特征點匹配的改進(jìn)圖模型算法. (eds.) 第十二屆全國圖象圖形學(xué)學(xué)術(shù)會議論文集 (pp.401-404).
2015年6月19日,由北京圖像圖形學(xué)學(xué)會主辦,清華大學(xué)承辦的第十屆圖像圖形技術(shù)與應(yīng)用學(xué)術(shù)會議,在清華大學(xué)電子工程系舉行,來自全國各地約200名專家學(xué)者參加了大會。
開幕式由大會主席清華大學(xué)王生進(jìn)教授主持,北京圖像圖形學(xué)學(xué)會理事長、中科院自動化所譚鐵牛院士,代表學(xué)會對參會代表表示熱烈的歡迎。
會議邀請了7個大會報告和6個專題報告,譚鐵牛院士率先做了大會報告《大規(guī)模視覺計算》;清華大學(xué)王生進(jìn)教授做了《視頻監(jiān)控中的行人再識別》的大會報告;來自微軟亞洲研究院的童欣研究員做了《基于數(shù)據(jù)驅(qū)動的圖形圖像處理》的大會報告。中科院計算所山世光研究員、北京大學(xué)袁曉如教授、公安部一所陳朝武副所長、中山大學(xué)賴劍煌院長分別做了《人臉識別技術(shù)研究現(xiàn)狀與展望》、《城市大數(shù)據(jù)可視分析》、《視頻大數(shù)據(jù)在社會治安和智慧城市中的應(yīng)用》、《非線性聚類新方法及其在圖像處理中應(yīng)用》的大會報告。會議精心安排了6個專題報告,清華大學(xué)馬惠敏、北航梁曉輝、廈門大學(xué)紀(jì)榮嶸、中國傳媒大學(xué)楊磊、中山大學(xué)賴劍煌 、華南理工大學(xué)許勇、 四川大學(xué)劉怡光,6位專家分別做了《基于圖像認(rèn)知的心理特征提取》、《基于氣象數(shù)據(jù)的天氣現(xiàn)象建模研究》、《圖像處理技術(shù)在文化科技領(lǐng)域中的應(yīng)用》、《社交多媒體輿情分析現(xiàn)狀與挑戰(zhàn)》、《一種用于大規(guī)模缺失矩陣低秩分解的隨機(jī)方法》、《MFS技術(shù)及其應(yīng)用》的專題報告。7名優(yōu)秀論文作者做了大會報告,其他作者做了海報展示。
精彩豐富的報告和論文作者的現(xiàn)場論文展示,使得本次會議學(xué)術(shù)交流量大大提高,論文作者和參會學(xué)者的進(jìn)行了熱烈的討論交流。會議還特別安排了與會代表參觀清華大學(xué)汽車系試驗場,電子系大型微波暗室,電子系史館,清華大學(xué)的老師和會議代表在現(xiàn)場進(jìn)行了更深入的交流。
IGTA會議論文集已連續(xù)兩年由Springer出版并被EI檢索。本屆論文收錄了50余篇英文論文再次由國際著名出版公司springer 為大會的論文集出版,并提交EI檢索。收錄的近30篇中文論文,被推薦到5-6家國內(nèi)著名期刊發(fā)表。大會組委會對論文質(zhì)量嚴(yán)格把關(guān),最后經(jīng)專家聽取論文作者報告,評選出7篇優(yōu)秀論文,并頒發(fā)證書。
本屆大會得到了北京市科學(xué)技術(shù)協(xié)會、清華大學(xué)電子工程系、中科院、北師大、北航、北理工等理事單位,各省、市圖像圖形學(xué)學(xué)會以及北京圖像圖形學(xué)學(xué)會各會員單位,Springer出版商的大力支持和鼎立協(xié)助。
來源: 北京圖像圖形學(xué)學(xué)會 2015-06-26
2015年7月14日,上午8點。華慧視公司在天津市濱海新區(qū)清華大學(xué)天津電子信息研究院大樓前舉行開業(yè)典禮,標(biāo)志著在清華大學(xué)天津電子信息研究院這個平臺上的第一家公司正式成立。
據(jù)悉,在今年5月份,天津市濱海新區(qū)、中新天津生態(tài)城管委會與清華大學(xué)(電子工程系)簽署了合作協(xié)議,清華大學(xué)天津電子信息研究院正式落戶中新天津生態(tài)城。根據(jù)合作計劃,清華大學(xué)天津電子信息研究院將選址生態(tài)城科技園,占地面積約150畝,包含總建筑面積為12萬平方米的可獨立管理的科研辦公樓。
清華大學(xué)天津電子信息研究院將在生態(tài)城建設(shè)國際一流的電子信息技術(shù)與產(chǎn)品創(chuàng)新基地、電子信息高新技術(shù)企業(yè)孵化基地、電子信息行業(yè)高端人才創(chuàng)業(yè)和培養(yǎng)基地,打造中國電子信息行業(yè)科技研發(fā)及產(chǎn)業(yè)孵化基地。項目將對生態(tài)城電子信息產(chǎn)業(yè)跨越式發(fā)展、科技研發(fā)能力顯著提升、綠色低碳經(jīng)濟(jì)體系升級完善起到巨大的推動作用,使生態(tài)城逐步成為高端電子信息產(chǎn)業(yè)聚集地。電子信息研究院以及相關(guān)落戶企業(yè)將在5年內(nèi),力爭吸引超過1000名創(chuàng)業(yè)、技術(shù)人員進(jìn)駐;并計劃在5年內(nèi)孵化30余個具有社會影響力的高科技科研成果,地,為生態(tài)城帶來一批成功孵化的電子信息企業(yè)。
清華大學(xué)電子工程系是清華大學(xué)重點院系之一,是學(xué)科全、綜合性強的電子信息學(xué)科教育和科研機(jī)構(gòu),擁有眾多國內(nèi)外領(lǐng)先的專利技術(shù),以及國內(nèi)最優(yōu)秀的專業(yè)人才,在業(yè)內(nèi)擁有豐富的產(chǎn)業(yè)資源和巨大的行業(yè)影響力。院系設(shè)置信息與通信工程、電子科學(xué)與技術(shù)兩個一級學(xué)科,六個二級學(xué)科,下設(shè)六個研究所和一個教學(xué)實驗中心,擁有院士、教授等百余人的高水平師資團(tuán)隊,多位教授入選長江學(xué)者、杰出青年等國家優(yōu)秀人才計劃,研發(fā)了數(shù)字電視國家標(biāo)準(zhǔn)、文字/人臉識別、光通信技術(shù)、太陽能熱利用等一大批世界級科研成果。
而華慧視公司正是清華大學(xué)電子工程系的研發(fā)成果產(chǎn)業(yè)化的典型代表。電子工程系和佛山市南海區(qū)宏乾電子有限公司合作,計劃將電子工程系智能圖文信息處理研究室王生進(jìn)教授研發(fā)的人臉識別技術(shù)產(chǎn)業(yè)化,華慧視公司因此而誕生。智能圖文信息處理研究室在人臉識別方面已經(jīng)有超過十年的研發(fā)基礎(chǔ),產(chǎn)生了一大批優(yōu)秀的科研成果,在很多方面都做到了世界先進(jìn)水平。正是借助于清華大學(xué)天津電子信息研究院這個新成立的平臺,這項合作才得以成功。
在開業(yè)儀式上,王教授代表清華大學(xué)電子工程系向出席儀式的來賓介紹了人臉識別技術(shù)的研發(fā)現(xiàn)狀和未來的前景,介紹了人臉識別技術(shù)經(jīng)過10多年的發(fā)展,尤其是近年來的互聯(lián)網(wǎng)和大數(shù)據(jù)技術(shù)的快速發(fā)展對人臉識別技術(shù)的推動作用。
華慧視公司的創(chuàng)始人施金佑先生在開業(yè)慶典上的發(fā)言體現(xiàn)了敏銳的商業(yè)觸感和獨到的眼光,他表示:人臉識別是一個非常有前景的技術(shù),在目前和將來的社會生活中將會有很廣泛的應(yīng)用,這是一個很大的市場。在母校清華大學(xué)的支持下,我們很有信心將這項技術(shù)推廣應(yīng)用,實現(xiàn)產(chǎn)業(yè)化,也會帶來極大的社會價值。這項技術(shù)已經(jīng)進(jìn)入了一個鼎盛發(fā)展的階段,正是這項技術(shù)進(jìn)入產(chǎn)業(yè)化階段的黃金時期,這也解釋了為什么最近幾年很多的公司和資金都開始進(jìn)入這個領(lǐng)域。但是憑借著清華大學(xué)電子工程系在人臉識別技術(shù)方面的多年積累,我們有信心站在這個行業(yè)的最前沿,在最先進(jìn)的領(lǐng)域取得突破。這是清華大學(xué)這個偉大的學(xué)校賦予華慧視公司的底蘊和使命
來源:清華大學(xué)電子工程系
榮譽獎勵:
1. “TH-ID人臉和筆跡生物特征身份識別認(rèn)證系統(tǒng)”,北京市科學(xué)技術(shù)獎一等,2006
2. “TH-ID人臉和筆跡生物特征身份識別認(rèn)證系統(tǒng)”,國家科學(xué)技術(shù)進(jìn)步獎二等,2008
3. “視頻安防監(jiān)控數(shù)字錄像設(shè)備圖像質(zhì)量評價測試系統(tǒng)”,北京企業(yè)評價協(xié)會科技創(chuàng)新成果獎,2010
4. 優(yōu)秀博士論文,中國人工智能學(xué)會, 2017
5. 國際模式識別學(xué)會ICPR2018最佳論文,2018
6. “跨視域行人再識別的特征學(xué)習(xí)理論與計算方法研究”,吳文俊人工智能科學(xué)技術(shù)獎自然科學(xué)獎二等,2019
7. “基于智能視頻的人體動態(tài)特征識別技術(shù)與系統(tǒng)”,公安部科學(xué)技術(shù)獎二等,2019
8. ICPR最佳論文獎,2019
9. 優(yōu)秀博士論文,中國人工智能學(xué)會, 2020
北京市科學(xué)技術(shù)獎技術(shù)發(fā)明一等獎,2021
10. Intel室內(nèi)機(jī)器人學(xué)習(xí)全球挑戰(zhàn)賽機(jī)器人識別賽道一等獎,2023,2023,4,2023-04-30
——記清華大學(xué)電子工程系信息認(rèn)知與智能系統(tǒng)研究所所長王生進(jìn)
盛夏的北京,熾烈的陽光炙烤著萬物,北京西北郊風(fēng)景秀麗的清華園里,清華大學(xué)電子工程系信息認(rèn)知與智能系統(tǒng)研究所掩映在一片綠茵之中,沒有大都市的繁華和喧囂,隨處可見的是大幅科學(xué)家的照片、精致的科研會議海報,淡淡的學(xué)術(shù)氣息彌散在四周,連空氣中都蔓延著創(chuàng)造和夢想的味道。叩開該所智能圖文信息處理研究室的門,迎接我們的正是今天的主角,清華大學(xué)電子工程系教授、博導(dǎo),安防專家王生進(jìn)。
從一個負(fù)笈東瀛求學(xué)的青年,一步步成長為安防領(lǐng)域的知名專家,對一個堅定的行走者意味著很多;從求學(xué)、治學(xué)到授學(xué),對一個執(zhí)著的探索者也不只是時間的概念。從回國初期的種種不易,到現(xiàn)在的科研教學(xué)齊飛,無論是王生進(jìn)還是信息認(rèn)知與智能系統(tǒng)研究所都走過了一條“行穩(wěn)致遠(yuǎn)”的道路。
選擇科研開始不懈的攀登
“1985年在清華大學(xué)獲工學(xué)學(xué)士學(xué)位、1997年在東京工業(yè)大學(xué)獲工學(xué)博士學(xué)位。1997-2003年在日本NEC互聯(lián)網(wǎng)系統(tǒng)研究所任研究員,2003年10月回到清華大學(xué)任教。主要從事計算機(jī)視覺和視頻圖像模式識別、多媒體信息處理領(lǐng)域基礎(chǔ)研究。現(xiàn)任清華大學(xué)電子工程系信息認(rèn)知與智能系統(tǒng)研究所所長,清華大學(xué)信研院汽車電子實驗室副主任。并擔(dān)任清華大學(xué)電子工程系學(xué)術(shù)委員會委員。”短短的簡歷背后,是一條令人艷羨的成長軌跡,更是一條不斷攀登科研高峰的路途。
在日本獲得工學(xué)博士學(xué)位之后,王生進(jìn)到日本NEC公司工作了五年,主要從事多媒體、信息處理方面的研究和技術(shù)開發(fā)。出國愈久,回歸的念頭愈強烈。2003年,王生進(jìn)主動聯(lián)系了清華大學(xué)洽談回國事宜。此時,日本NEC公司也開始著手在中國建研究院,希望王生進(jìn)回國主持相關(guān)工作。權(quán)衡再三,王生進(jìn)選擇了到清華工作,在電子工程系圖像圖形技術(shù)研究所(現(xiàn)信息認(rèn)知與智能系統(tǒng)研究所),王生進(jìn)把研究方向定在了智能信息處理這個方向上,研究成果重點將應(yīng)用在公共安全領(lǐng)域。
“目前我們研究室主要有三大研究方向,一是文字識別,這是當(dāng)年吳佑壽院士和丁曉青教授做得時間比較長的方向;二是人臉識別,主要以丁曉青教授為代表,三就是我回來之后負(fù)責(zé)的智能視頻處理這個方向。在這個方向上,我一是做了一些理論研究方面的工作,主要是將智能視頻分析技術(shù)運用于日常視頻監(jiān)控錄像的海量數(shù)據(jù)分析,特別是對于人、車、物等重點要素及其特征予以識別的算法應(yīng)用;二是與安防部門合作,和平安城市建設(shè)相結(jié)合,做了一些應(yīng)用上的探索。”因為研究內(nèi)容的重要性,王生進(jìn)還兼職擔(dān)任了全國安防標(biāo)委會人體生物特征識別應(yīng)用分技術(shù)委員會委員、教育部網(wǎng)上巡查視頻標(biāo)準(zhǔn)專家組顧問委員、公安部公共安全和安防領(lǐng)域?qū)<摇⑹鍑铱萍贾斡媱澤鐣舶踩ò踩婪叮╊I(lǐng)域立項專家組成員、北京圖像圖形學(xué)會副理事長等職。
非凡智慧成就事業(yè)的輝煌
同事們都說,王生進(jìn)是有大智慧的人。在學(xué)術(shù)研究領(lǐng)域,他既有遠(yuǎn)見卓識,更有打破常規(guī)的氣魄。的確,當(dāng)年回國加盟清華大學(xué)電子工程系圖像圖形研究所,他選擇從事智能視頻處理這個新的研究方向,是因為他敏銳地意識到,2000年以后信息化社會發(fā)展如此迅速,國內(nèi)相關(guān)領(lǐng)域的技術(shù)力量應(yīng)該是未來的朝陽產(chǎn)業(yè),有著無比廣闊的前景。10多年來,信息技術(shù)領(lǐng)域的發(fā)展充分證實了他當(dāng)初的判斷,而智能視頻分析則由于其關(guān)鍵內(nèi)容是基于視頻的人、車、物的檢測和分類,是計算機(jī)視覺、模式識別和圖像處理領(lǐng)域十分具有挑戰(zhàn)性的課題,其研究已成為國際上非常活躍的研究領(lǐng)域。
在專業(yè)領(lǐng)域,王生進(jìn)多年從事多媒體信息處理、自動目標(biāo)識別與跟蹤、智能視頻分析、生物特征識別等方面的研究工作,做出了一系列創(chuàng)新性的研究成果:研究智能視頻圖像處理中的高維信息的鑒別問題,提出面向鑒別的維數(shù)壓縮方法,獲得模式識別關(guān)鍵的維數(shù)壓縮鑒別特征;提出集成學(xué)習(xí)理論的方法,建立集成識別系統(tǒng)最優(yōu)的信息融合理論和模型;并以目標(biāo)檢測、目標(biāo)識別、目標(biāo)跟蹤為基礎(chǔ),構(gòu)建對于國家安全和公共安全有重大需求的智能視頻監(jiān)控系統(tǒng)。近年來,研究團(tuán)隊獲得了包括973、863、國家自然科學(xué)基金、教育部博士點基金等多個國家項目支持,并取得出色成果。其中,他在2007-2008年度主持的863計劃項目“基于人類視覺感知和認(rèn)知機(jī)理的視頻圖像模式識別和機(jī)器學(xué)習(xí)”研究中,共發(fā)表論文28篇,其中SCI論文6篇,EI論文12篇,在本領(lǐng)域國際著名期刊IEEE Trans.、Pattern Recognition Letters上發(fā)表了多篇高水平學(xué)術(shù)論文,合作翻譯出版圖像處理專著1本,申請發(fā)明專利5項。至今為止,他在國際國內(nèi)重要期刊和國際重要學(xué)術(shù)會議上發(fā)表論文90篇,已申請發(fā)明專利14項(已授權(quán)6項),軟件著作權(quán)3項。作為起草人之一,他還參與制定了中華人民共和國公共安全行業(yè)標(biāo)準(zhǔn)《安全防范系統(tǒng)生物特征識別應(yīng)用術(shù)語》和國家標(biāo)準(zhǔn)《安全防范視頻監(jiān)控數(shù)字視音頻編解碼技術(shù)要求(SVAC)》。獲得國家科技進(jìn)步二等獎1項、獲北京市科學(xué)技術(shù)一等獎1項、獲NEC卓越研究獎1項、獲學(xué)會優(yōu)秀論文獎1項等獎勵。
在科學(xué)研究的內(nèi)容上,王生進(jìn)認(rèn)同清華大學(xué)提出的理念——科研應(yīng)是“頂天立地”的研究,‘頂天’就是要在基礎(chǔ)研究方面與世界同步,‘立地’就是研究成果要能運用到實際生活之中。“非常幸運地,我趕上了平安城市建設(shè)這個比較好的時機(jī),使得我研究的技術(shù)在公共安全領(lǐng)域有了被國家需要的應(yīng)用前景。”正如王生進(jìn)所言,由于該項技術(shù)將目標(biāo)檢測、特征識別和分類技術(shù)結(jié)合起來,使得對大范圍場所的監(jiān)控得以實現(xiàn),可以提供對國家重要安全部門和敏感的公共場合進(jìn)行全天候、自動的、實時的監(jiān)控手段,因此能夠滿足面向國家防恐反恐和公共安全等真實場景的需要,其研發(fā)的技術(shù)已經(jīng)應(yīng)用在了北京東直門交通樞紐監(jiān)控系統(tǒng)等實際場景中。
但是,目前主要存在的問題是如何進(jìn)一步提高監(jiān)控系統(tǒng)的穩(wěn)定性、適用性,以及智能性,這是智能監(jiān)控系統(tǒng)實用化的前提。“十一五期間,我們的主要工作是搭建監(jiān)控系統(tǒng)這個平臺,平臺搭好之后,現(xiàn)在它的主要功能還是在錄像,事件發(fā)生之后,需要從海量數(shù)據(jù)中去甄別和查詢,因此,在十二五期間,我們希望把這項技術(shù)做得更智能化,最好能事先預(yù)知某些危及公共安全事件的苗頭,智能分析、感知和提醒防范,讓技術(shù)‘活’起來。”
集體榮譽彰顯工作的價值
“我所從事的事業(yè)與公共安全直接掛鉤,因此我感到非常幸運。人生最大的幸事就是在實現(xiàn)個人價值的同時,用個人所學(xué)、所長、所創(chuàng),為社會、為人類作出自己的貢獻(xiàn)!這些年來,我所有的工作都是為人民大眾和社會服務(wù),我覺得這就是我最大的成就。”
王生進(jìn)在接任所長時,就知道自己踏上了一條任重而道遠(yuǎn)的道路:要把隊伍帶成學(xué)校一流的科研團(tuán)隊,需要遠(yuǎn)見卓識的能力和科學(xué)發(fā)展的眼光。上任之后,王生進(jìn)首先把各個研究室的力量集中起來,確定了研究所的五個主要研究方向。其次,他努力為所里的科研人員創(chuàng)造和諧的工作環(huán)境。近年來該所主要承擔(dān)了國家科技攻關(guān)、973、863項目、自然科學(xué)基金重點和面上項目、教育部211和985項目、其他部委以及眾多的國際國內(nèi)橫向合作項目。在視頻、圖像和語音數(shù)據(jù)的壓縮編碼與傳輸、文字識別(OCR)、生物特征識別與視頻監(jiān)控、語音識別、高速圖像處理系統(tǒng)、基于內(nèi)容的視音頻信息檢索和挖掘、網(wǎng)絡(luò)信息挖掘和信息安全等研究領(lǐng)域中取得了顯著的成果,獲得了多項國家和部委獎勵。
2011年,電子工程系進(jìn)行學(xué)科調(diào)整,將圖像圖形研究所和網(wǎng)絡(luò)與人機(jī)語音通信研究所合并而成信息認(rèn)知與智能系統(tǒng)研究所。王生進(jìn)繼續(xù)擔(dān)任所長,團(tuán)隊更大了,任務(wù)也更重了,但王生進(jìn)的信念沒有變,他仍堅持著最初的夢想,為信息處理領(lǐng)域添上一筆的夢想。
培養(yǎng)新人竭盡教育的本分
到清華大學(xué)電子工程系任職后,科研與教學(xué)成為了王生進(jìn)工作的兩大重心。如今的大學(xué)里,這兩項任務(wù)常常有沖突,尤其在嚴(yán)峻的就業(yè)形勢下培養(yǎng)研究生,必須兼顧到他們的就業(yè),因此要做到科研與教學(xué)各不偏廢,實屬不易。但王生進(jìn)覺得,個人的科研工作固然重要,但培養(yǎng)新人、壯大科技隊伍,是中國由制造業(yè)大國走向創(chuàng)造型國家的必要前提。他熱愛自己的專業(yè),因此希望更多的學(xué)生能夠成為自己的同道,成為國家的有用之才,所以他愿意給本科生上課,把進(jìn)入信息處理研究領(lǐng)域的鑰匙交給更多的年輕人。在繁重的科研攻關(guān)、團(tuán)隊管理工作之外,王生進(jìn)目前仍主講兩門本科生和一門研究生的專業(yè)課程,以及多個專業(yè)講座課程。對于每一門課程他都要花上大把的時間認(rèn)真?zhèn)湔n。
關(guān)心每個學(xué)生的未來發(fā)展,因材施教,是王生進(jìn)在教學(xué)上的另一種真誠。回國后的2005年,王生進(jìn)除擔(dān)任研究所所長,他還是電子工程系的年級主任,肩負(fù)著全系2005級11個班的學(xué)生管理工作。他根據(jù)學(xué)生的特長、性格,引導(dǎo)學(xué)生們揚長避短制定相應(yīng)的選課計劃和職業(yè)規(guī)劃。在幫助研究生確定課題時,他會綜合考慮課題的學(xué)術(shù)價值與實用價值,因而一些研究生畢業(yè)時,由于擁有了市場前景不錯的新技術(shù)而備受用人單位青睞。
在信息認(rèn)知與智能系統(tǒng)研究所的科研人才培養(yǎng)方面,王生進(jìn)將該所的學(xué)科發(fā)展方向確定為基于云計算的跨媒體海量信息處理與認(rèn)知,即圖像處理與認(rèn)知、文字識別與語言理解、圖形處理與虛擬現(xiàn)實、語音與音頻處理、網(wǎng)絡(luò)信息處理、通信信號處理。研究所發(fā)展的指導(dǎo)思想是,在現(xiàn)有學(xué)科優(yōu)勢的基礎(chǔ)上,向多源多模,智能化,網(wǎng)絡(luò)化,以及系統(tǒng)集成的方向發(fā)展。目前形成9個主要研究方向。同時,研究所致力于培養(yǎng)基礎(chǔ)理論堅實,科學(xué)學(xué)識廣博,系統(tǒng)開發(fā)能力突出,具有高度科技創(chuàng)新能力的高層次專業(yè)人才。
魯迅先生曾說:“我們自古以來,就有埋頭苦干的人,就有拼命硬干的人,有為民請命的人,有舍身求法的人……這就是中國的脊梁。”王生進(jìn)和信息認(rèn)知與智能系統(tǒng)研究所這個團(tuán)隊苦干、實干,勇攀信息科技高峰,他們不愧是民族的驕傲、人民的自豪。
專家簡介:
王生進(jìn),清華大學(xué)電子工程系圖像圖形研究所所長、清華大學(xué)信研院汽車電子實驗室副主任、清華大學(xué)電子工程系學(xué)術(shù)委員會委員。主要從事多媒體信息處理、自動目標(biāo)識別與跟蹤、智能視頻分析、生物特征識別等方面研究工作。近年來在計算機(jī)視覺、視頻圖像模式識別、多媒體信息處理等方面做出一系列創(chuàng)新的研究成果,在IEEE Trans. SMC、PRL、ACM、自動化學(xué)報、中國圖像圖形學(xué)報等國際國內(nèi)重要刊物和CVPR, 即CVPR,ICPR, ICIP等國際重要學(xué)術(shù)會議發(fā)表論文90篇以上。目標(biāo)檢測與跟蹤方面的成果被國際同行評價為具有“原創(chuàng)的”、“突破性”。申請發(fā)明專利14項(已授權(quán)6項),軟件著作權(quán)3項。作為起草人之一,制定中華人民共和國公共安全行業(yè)標(biāo)準(zhǔn)《安全防范系統(tǒng)生物特征識別應(yīng)用術(shù)語》和國家標(biāo)準(zhǔn)《安全防范視頻監(jiān)控數(shù)字視音頻編解碼技術(shù)要求(SVAC)》。獲國家科技進(jìn)步二等獎1項、獲北京市科學(xué)技術(shù)一等獎1項、獲NEC卓越研究獎1項、獲學(xué)會優(yōu)秀論文獎1項。任北京圖像圖形學(xué)會副理事長、公安部公共安全和安防領(lǐng)域?qū)<遥珖卜罉?biāo)委會人體生物特征識別應(yīng)用分技術(shù)委員會委員、教育部網(wǎng)上巡查視頻標(biāo)準(zhǔn)專家組顧問委員,十二五國家科技支撐計劃社會公共安全(安全防范)領(lǐng)域立項專家組成員,十二五國家科技支撐計劃“公共安全物聯(lián)網(wǎng)技術(shù)研究與應(yīng)用示范”項目咨詢專家組組長,擔(dān)任中國科學(xué)院、中國工程院、國家自然科學(xué)基金委員會主辦的“尋找青年科學(xué)之星”評審委員會信息技術(shù)領(lǐng)域評委。
來源:科學(xué)中國人 2013年第11期
中國科技創(chuàng)新人物云平臺暨“互聯(lián)網(wǎng)+”科技創(chuàng)新人物開放共享平臺(簡稱:中國科技創(chuàng)新人物云平臺)免責(zé)聲明:
1、中國科技創(chuàng)新人物云平臺是:“互聯(lián)網(wǎng)+科技創(chuàng)新人物”的大型云平臺,平臺主要發(fā)揮互聯(lián)網(wǎng)在生產(chǎn)要素配置中的優(yōu)化和集成作用,將互聯(lián)網(wǎng)與科技創(chuàng)新人物的創(chuàng)新成果深度融合于經(jīng)濟(jì)社會各領(lǐng)域之中,提升實體經(jīng)濟(jì)的創(chuàng)新力和生產(chǎn)力,形成更廣泛的以互聯(lián)網(wǎng)為基礎(chǔ)設(shè)施和實現(xiàn)工具的經(jīng)濟(jì)發(fā)展新形態(tài),實現(xiàn)融合創(chuàng)新,為大眾創(chuàng)業(yè),萬眾創(chuàng)新提供智力支持,為產(chǎn)業(yè)智能化提供支撐,加快形成經(jīng)濟(jì)發(fā)展新動能,促進(jìn)國民經(jīng)濟(jì)提質(zhì)增效升級。
2、中國科技創(chuàng)新人物云平臺暨“互聯(lián)網(wǎng)+”科技創(chuàng)新人物開放共享平臺內(nèi)容來源于互聯(lián)網(wǎng),信息都是采用計算機(jī)手段與相關(guān)數(shù)據(jù)庫信息自動匹配提取數(shù)據(jù)生成,并不意味著贊同其觀點或證實其內(nèi)容的真實性,如果發(fā)現(xiàn)信息存在錯誤或者偏差,歡迎隨時與我們聯(lián)系,以便進(jìn)行更新完善。
3、如果您認(rèn)為本詞條還有待完善,請編輯詞條。
4、如果發(fā)現(xiàn)中國科技創(chuàng)新人物云平臺提供的內(nèi)容有誤或轉(zhuǎn)載稿涉及版權(quán)等問題,請及時向本站反饋,網(wǎng)站編輯部郵箱:kjcxac@126.com。
5、中國科技創(chuàng)新人物云平臺建設(shè)中盡最大努力保證數(shù)據(jù)的真實可靠,但由于一些信息難于確認(rèn)不可避免產(chǎn)生錯誤。因此,平臺信息僅供參考,對于使用平臺信息而引起的任何爭議,平臺概不承擔(dān)任何責(zé)任。