每天都在汆肉中醒来青梅,好男人www在线观看,少妇无码自慰毛片久久久久久,国产欧美另类久久久精品丝瓜

登錄注冊
新聞 資訊 金融 知識 財經 理財 科技 金融 經濟 產品 系統 連接 科技 聚焦
首頁 > 新聞 > 業界 > > 正文

圖像識別能識臉,能不能識別出咱倆不為人知的關系?

2018-08-21 14:34:01來源:搜狐科技

最近看電視,小探開始感慨時光如水啊。怎么覺得巴西里約奧運會才剛剛過去,日本奧運會怎么就要來了呢?!

日本 NEC 公司近日宣布,2020 日本奧運會將使用 NEC 旗下的人工智能 NeoFace 來進行大范圍的人臉識別功能。據悉,該系統會被用在三十多萬人身上,包括運動員、志愿者、觀眾、媒體等參會者。據說,NEC 目前的人臉識別技術已經通過了美國國家標準與技術研究所的基準測試,目前處于世界前列。

可是小探我怎么看到了張學友不懷好意的笑了呢?

我們都知道張學友是歌神,但其實他是一位被歌神耽誤了的 “捕神” … 今年早些時候,在自己的四場音樂會上,“協警” 張學友一共幫警方抓住了五名在逃嫌疑犯!這可真是 “你來聽我的演唱會,附贈手銬一對。”

作為人臉識別技術的鼻祖 —— 圖像識別技術,大家又了解多少?目前已經發展到什么階段?接下來還會不會有新的突破呢?

今天,小探就帶領大家一起去看看關于圖像識別技術的發展。

AI 圖像識別到底是個啥?

圖像識別技術是以圖像的主要特征為基礎的。比如說,如花,你要抓住她那張嘴和鼻孔。

因為研究人員發現,當人類在看圖像時,視線總會集中在主要特征上,也就是在圖像輪廓曲度最大或輪廓方向突然改變的地方。

這些地方的信息量最大。而且眼睛的掃描路線也總是依次從一個特征轉到另一個特征上。同時,在大腦里有一個機制負責整合信息,把分階段獲得的信息整理完整。

圖像識別技術在各行業中具有廣泛應用。谷歌的 TensorFlow、Facebook 的 DeepFace、微軟的 Project Oxford 都是深度學習圖像識別系統的例子。據KBV Research 數據預測,到2022年,全球圖像識別市場將高達 422 億美元!

圖像識別的技術,從一開始,就和人工智能緊緊地聯系在了一起。

今年一月,谷歌發布了一款新的人工智能工具,讓任何人都可以在他們選擇的照片數據集上訓練機器學習系統。該軟件稱為 Cloud AutoML Vision。在隨后的博客文章中,Google Cloud AI 部門的首席科學家解釋了該軟件如何幫助沒有機器學習背景的用戶。

除了商業目的的炒作,訓練 AI 看起來似乎非常簡單。

首先,你需要大量的標記圖像。最小數量值為 20 個標記,軟件最多支持數量值 10,000個標記。標記越多,辨識度也就越高。

很多圖像識別都是關于識別模式。一旦Google的AI認為它很好地理解了用戶上傳的圖像的鏈接,它就可以用來在新的上傳中查找該模式,然后吐出一個數字,表示它認為新圖像匹配它的程度。因此,氣象學家們可以利用此技術在天氣變化時上傳圖像,識別云、雨、霧、霜等,并同時繼續訓練和改進軟件。

說起訓練和改進軟件,斯坦福教授李飛飛的團隊去年曾經對圖像識別的發展歷程發表了一次演講。在演講中,李教授提到了早在 1996 年時,神經學家 Simon Thorpe 及團隊就發布了一項研究,通過腦電波來觀察人腦對于圖像識別的速度。

僅僅用 100 微秒,也就是0.000001秒,大腦就會發出一道區分信號,對畫面中的物體是否為動物做出判斷。對于復雜目標對象的處理能力,構成了人類視覺系統的基礎。這項對目標物體識別的研究,促進了整個計算機視覺的大發展。

而李飛飛教授當年所帶領的團隊所做的ImageNet則是從2010年開始挑戰傳統的圖像分類,他們將識別錯誤率從 28% 降低到了 2.3%。可謂成就矚目!

目前,AI 圖像識別的雖然可以識物,但是科學家們真正關心的是如何訓練出可以識別物與物關系的系統。

然而

在李飛飛的演講中,她提到了,目前大家可以在谷歌中輸入“男人穿套裝”或者“可愛的狗狗”這一類的詞后,系統會返回給你漂亮的照片。

但當我們用更復雜的句子搜圖時,比如搜 “一個穿著紅衣服的小女孩在和一個穿著藍衣服的小男孩在海邊踢足球”,就很難搜出符合我們要求的圖片了。這是為什么呢?

李飛飛提到,“我們希望對我們得到的東西有更多的控制,更豐富的場景檢索。然后,場景檢索模型就沒法實現了,因為它是基于對象的,它并不真正地理解關系。”

這也是目前圖片識別一直想要突破的問題。

AI圖像識別 2.0 要來了?

然而,在硅谷就有這樣一支團隊,致力于解決關系型圖片搜索的問題!小探最近采訪了 Neuron Drop 的創始人及 CEO Gordon Lu,請他來講一講 Neuron Drop 所做的開啟了 AI 2.0 時代的項目。據 Gordon 介紹,他們的團隊也有一批李飛飛級別的教授和工程師。

Gordon 認為:如果說 AI 1.0 時代是目前李飛飛等科學家已經形成的由深度學習構建而成的“辨識物體”圖像識別技術,那么 AI 2.0 則是涉及到了“辨識物體間關系” 的圖像識別技術。

Neuron Drop 是一家總部位于美國硅谷的AI 2.0神經網絡公司,專注于動態視覺識別技術。核心是軟件和芯片的開發能力 ,可賦于機器識別、追蹤、監控動態物體(如珍稀動物、植物等)的能力 。公司的核心能力得到若干優質歷史項目的驗證,如國防系統, 駕駛技術等。現階段隨著模型的完善,將進一步把核心技術民用化、消費化。

Neuron Drop 首創了分布式智能深度學習算法 DCNN。這個算法有哪些特點呢?具體來看,首先,作為創始人的Gordon強調了“我們不是所有的情況下都需要用海量數據去學習”!

這個怎么講?原來,Gordon和他的團隊研發的 DCNN 算法相比較與傳統的 CNN (卷積神經網絡)模式,可以實現自我學習,無需海量數據來構建模型。

并且這其中的每一種算法的背后都有自己的 “指紋”。這是由于 Neuron Drop 原創的智能視覺能夠識別、跟蹤、預警深度學習模式。所以智能終端不需要重新學習。相比于其他人工智能模式可以大幅降低人工智能訓練成本。

比如說,達芬奇的世界名畫《蒙娜麗莎》真品只有一幅。那么我們怎么來通過人工智能來辨識真跡?Gordon 強調了Neuron Drop 算法的獨特性,使得即使沒有數據,人工智能也能做到“火眼金睛”。

“這也是我們和市場上李飛飛、吳恩達等人的研究的本質不同所在。這就是我們的AI 2.0 版本。” Gordon 說道。

同時,Neuron Drop 基于動態物體和人的行為特征構建模型,相較傳統靜態識別可大幅度提高識別精確度。也就是說,有些東西在靜止的情況下不容易看出來是什么,但如果在動態情況下,識別起來反而容易得多。

“在我們的測試環境下,我們發現我們的精準度大概是97.7%-98.5%左右。” Gordon 補充到。

目前,Neuron Drop 目前主要針對中國市場。應用場景包括大型國際會議、音樂會的安防,以及人口密集地區的活動。

同時,國內的高鐵和高壓線維修保護,Neuron Drop也能幫上忙!比如說,我們目前的高壓線維修都是需要人力爬到半空中檢查。而有了新的圖像識別技術,只需要AI來通過拍照來檢測一下圖像上是否有異樣,便可以省去很多人力物力。

高鐵的軌道也是一樣道理。目前,國內高鐵的第一班列車都會是空車運行。目的就是要保證當日鐵軌的足夠安全。如果人工智能夠直接識別有異樣的高鐵軌道,那么就不需要再耗時耗力地空跑第一趟高鐵了!

在采訪的最后,Gordon 透露,“谷歌去年的文字(搜索圖片)銷售的銷售額達到 1170 億美金,我們估計再過兩年,這個市場可以達到百億!

那么項目什么時候能投入使用呢?據 Gordon介紹,今年年末國內就有望使用該技術了!

可以想象,圖像識別2.0 的時代,不僅在識別辨識度上大幅度提高,很多人力、物力資源都會因此而被節省。那么圖像識別2.0 時代何時才能真正到來呢?我們翹首以待。

關鍵詞: 別出 圖像

熱點
39熱文一周熱點
主站蜘蛛池模板: 鹰潭市| 拉孜县| 巨野县| 琼中| 青铜峡市| 武定县| 麻城市| 策勒县| 多伦县| 德令哈市| 宜昌市| 泊头市| 巴林右旗| 鱼台县| 广宗县| 英德市| 寿宁县| 辉县市| 盐津县| 邵阳县| 彩票| 临桂县| 灌云县| 东安县| 调兵山市| 龙江县| 孟津县| 北安市| 天台县| 吉林省| 绍兴市| 贺州市| 明溪县| 六枝特区| 元谋县| 监利县| 城步| 聂拉木县| 元谋县| 武功县| 遂昌县|