人工智慧只有機器人嗎?才怪嘞!

2018/08/15 16:21:25 網誌分類: 生活
15 Aug

人工智慧一般是作為輔助人類工作的工具出現的,掃地機器人、醫療機器人、服務員機器人等是最常見的人工智能形態。事實上,人工智能并不只有機器人一種形態,從領域上來看,包括機器人、語言識別、圖像識別、自然語言處理和專家系統等。今天我們就來看下,除了機器人,人工智能的產品還有哪些。

谷歌人工智慧項目DeepMind

谷歌位于倫敦的研發部門DeepMind已經開發出能夠自主玩視頻游戲的人工智能技術。以DeepMind技術為基礎的計算機系統,能以驚人的速度學習,快速掌握游戲玩法,精通游戲獲勝方法。此前,團隊稱之為深度Q-network學習網絡,僅需觀察游戲畫面以及游戲得分的變化情況,即可分析獲得“通關技巧”以及獲得高分的玩法及算法,能夠達到專業級人類玩家的水平。

undefined

目前這個系統在相同算法,網絡架構以及參數的設定下已經經過49個游戲的測試,目前已經能夠熟練22種游戲(包括上述的Space Invaders),達到專家級的游戲水平。這套系統進一步證明人工智能可以通過深度學習,從而掌握游戲技巧,并獲得和人類一樣的操控力,甚至在某些方面超過人類。

IBM Watson

去年,IBM發布了Watson Analytics。Watson Analytics實現了基于自然語言的認知服務,可以為商務人士即時提供預測和可視化分析工具。Watson Analytics將于本年末推出基于云服務的免費增值應用版本(Freemium Version),可在電腦及移動設備上使用。

Watson Analytics可提供自助式分析功能,包括數據訪問、數據清洗、數據倉庫,幫助企業用戶獲取和準備數據,并基于此進行分析、實現結果可視化,為使用者采取有效行動和開展進一步交互提供基礎和便利。

微軟人工智慧Torque中文版

今年2月份,微軟發布了一款為安卓平臺的中國用戶度身打造、以手勢驅動并語音交互的人工智能產品Torque中文版。作為微軟在安卓平臺上的首個人工智能產品,同時也是微軟首個針對可穿戴設備的中文產品,Torque的目標是用最小的界面把信息的傳遞做到最直接、最及時。Torque的誕生解放了安卓用戶的雙手,用戶只需要輕輕搖動手腕,然后對它說:“快樂大本營主持人”,“最近的肯德基在哪”,“打電話給張勇”等指令,就能體驗以極簡的動作輕松得到信息和完成更多任務——這也正是微軟對移動互聯時代,移動生產力和效率的理解。

undefined

據微軟表示,Torque和小冰、小娜等微軟人工智能產品一樣,都采用了必應大數據平臺作為底層引擎,用來處理每個用戶通過手機和移動互聯網上傳到云里的語音命令;而微軟(亞洲)互聯網工程院的人工智能產品團隊,針對中國用戶的偏好和習慣,在功能上做了特殊設計和本地化開發。

Youtube自動字幕

2009年時Google便已經利用他們的語音識別技術,在YouTube上提供實時的「自動字幕(Automatic Captions)」功能,除了讓用戶可以在避免干擾到他人以不開啟喇叭的狀況下,觀賞網絡上成千上萬的各種影片內容。

YouTube調用Google的自動語音識別技術(ASR)給YouTube視頻加入字幕,這個技術來自于Google Voice。當然生成的字幕不可能100%準確,但起碼可以幫助你提高聽力來理解視頻內容,而且Google會一直改進自動語音識別技術的。這項技術支持英語、日語、韓語、西班牙語、德語、意大利語、法語、葡萄牙語、俄語、荷蘭的自動字幕。

除了自動字幕功能以外,YouTube還針對給視頻制作字幕的朋友添加了字幕時間和自動時間的功能,使大家可以更輕松的自己動手做字幕。你只需要創建一個簡單的文本文件,里面寫上所有視頻里說的單詞,然后Google利用自動語音識別技術可以將文本里的這些話與自己識別出的話做對應,這樣準確率就提高了,而且你還不必花太多時間去一句一句的配字幕。

人工智能仿生眼

英國曼徹斯特皇家眼科醫院已經成功實施了世界首例人工仿生機器眼移植治療老年性視網膜黃斑變性(AMD)所導致失明的手術。這個人工智能仿生眼裝置被稱為Argus II,由兩部分組成:體內植入部分和體外病人必須穿戴的部分。植入設備將植入到病人的視網膜上,設備中含有電極陣列,電池和一個無線天線。外部設備包含一副眼鏡,內置前向的攝像頭和無線電發射器以及一個視頻處理單元。

undefined

攝像頭會捕捉到植入體正對面的畫面,將信號發送到視頻處理器上等待處理。經處理后的信號又被發送回眼鏡上,信號通過眼鏡被植入設備的天線所接收。最終,視頻被“輸出”到電極陣列上,電極陣列起到視神經模擬的作用。電極陣列的分辨率達到60像素水平,這已經足夠讓植入設備追蹤物體運動的軌跡,看清基本的圖案和形狀,或者緩慢閱讀較大的文字。Argus II所提供的畫面是黑白的,但Argus的開發團隊正在努力對電極大腦刺激進行編譯,希望盡快能讓大腦接收彩色信號。

患者在手術后,恢復后已經能夠識別出垂直或水平的線條,能夠辨識出人臉,不需要放大鏡閱讀報紙。更有趣的是,通過這項手術,患者即使閉上眼睛也能夠看到眼睛的景象,這就讓人感到有一些有趣了。

此外,美國開發人工智能眼球的公司--第二視覺公司開發的人工智能眼球也已獲準上市,該產品可以讓完全失明的盲人重新恢復視力。

新聞寫作機器人

美聯社去年夏天起用Wordsmith平臺自動撰寫財經新聞。按照美聯社商業新聞主管Lou Ferrara的說法,采用基于算法的機器新聞寫作后,在無須增加新的人手的情況下,美聯社的商業新聞中關于企業季度經營狀況的報道量,將增加10多倍,即從原先每季度300篇上升到4400篇,而與此同時將能把之前用于此類報道的記者“解放”出來,讓其可以從事更具有創造性和挑戰性的新聞策劃和新聞源拓展工作。該系統剛上線時,尚需由人工審稿并對平臺加以調整,三個月后已完全不需要人為干預。

康奈爾大學開發的鳥臉識別技術

康奈爾大學與VIsipedia研究計劃小組共同開發了Merlin Bird Photo ID軟件,可以借助計算機視覺識別技術和深度機器學習來識別各種圖片中出現的鳥類種類。這對于入門的賞鳥人士和鳥類愛好者來說,是個非常不錯的軟件。通過深度機器學習,這個程序能夠在數秒內提供識別結果,前三種識別結果準確率已經達到了90%以上。

用戶可以通過上傳不知道種類的鳥類圖片,并且用方框框出需要識別的鳥類圖像縮小識別范圍。軟件能夠從數萬張圖片中指出已知種類的鳥,目前數據庫已經包含在北美常見的400多種鳥類。隨著用戶使用次數,和深度機器學習,準確度會日漸提高。康奈爾大學的教授Serge Belongie說:“計算機可以比人類更有效地處理圖片,它們能夠分類、建立索引、處理大量的圖形細節特征來識別結果”。

Skype實時翻譯工具

微軟的實時翻譯工具Skype Translator將語音識別技術和微軟所謂的“深度神經網絡及微軟已得到證明的靜態機器翻譯技術”結合在一起。能自動翻譯不同語言的語音通話和即時通信消息。

目前支持英語、西班牙語、意大利語和漢語普通話。此外,即時通信消息的翻譯已支持50種語言,包括法語、日語、阿拉伯語、威爾士語,甚至克林貢語。

由于這款翻譯工具集成了機器翻譯、語音識別、機器學習、大數據等先進技術,因此被廣泛看好。據了解,Skype中文實時口譯所需的語音識別技術,由微軟中國和美國的研究人員聯合開發。

谷歌越來越關注神經網絡和人工智能,以解決搜索、圖像處理和其他計算領域的問題。它也正在通過“AIY項目”這樣的計劃來促進開發人員和DIY社區對人工智能的興趣,這些計劃本身代表了人工智能。谷歌宣布推出一項新的AIY硬件項目,幫助您體驗計算機視覺和物體識別。

31474863_2223542057672619_6121091848711700480_n.jpg

AIY 全稱是 Artificial Intelligence Yourself,顧名思義就是利用 AI 來進行的 DIY 功能套件。該項目的目標是讓每個 人都可以 DIY 自己的 AI 人工智能產品,真正實現AI平民化。為了方便用戶學習和了解TensorFlow以及人工智能,谷歌還為自己的AIY硬件——Vision Kit(它不僅帶有攝像頭,還支持神經網絡模型)提供了 3 個基于 TensorFlow 神經網絡模型,它們能同時識別上千個相同的對象,或是人物面孔及表情,又或是識別人物、貓狗等目標。用戶也可以通過谷歌提供的編譯工具對 TensorFlow 神經網絡模型進行訓練,讓AIY Vision Kit識別更多事物。

回應 (0)
我要發表
user