上次有跟大家提到蘋果的紅牌SIRI姐,小編我在網路上有看到一篇文章在介紹SIRI,節錄其中的內容跟大家分享一下:
…硬體是其次,重點其實在Siri,在官方的iPhone 4S片長約5分鐘的宣傳影片中,Siri的介紹占了1/5強的時間,可見其重要性一般。那麼到底Siri的重要性在哪?為什麼他可能是改變遊戲規則的重量型服務呢?我昨天睡不著無聊在 Quora 上翻看文章,找到了這篇「Why is Siri important?」,相當的令人瞠目結舌的答案,相當推薦將原文看過一遍,並把裡頭的連結全部看一次,由於這個領域對我來說相當的陌生,如果有理解錯誤,歡迎高手留言指正:)
這不是傳統的語音辨識或命令系統
有很多人會把多年前的拉麵機或者是近來Google 的語音命令拿來跟Siri相提並論,再說一次,這些不是同一個層次的東西,他是人工智慧、自動學習(continual learning)加上情境感知系統(contextual awareness system)的綜合體,Siri可以被視為真正的「綜效」(定義是:兩個或更多事物並放在一起,產生新的結果,中文在Wikipedia被解釋為 1加 1大於 2的結果),幾個沒有新意的東西加在一起,產生Siri這個前所未聞的產品。
電腦科學研究者們的聖杯之一,就是有一天,可以創造出一個裝置,它可以像人類般的進行有智慧的對話。我們可能有過一些很好笑語音辨識系統經驗,但直到近年來的科技不斷演進,Siri就是它的副產品。
Siri的歷史以及DARPA
DARPA,中文可以被翻為美國國防部高級研究規劃局(這名字聽起來就很威),這個單位最著名的發明就是網際網路,而這個單位也促成了Siri的發明,DARPA資助史丹佛研究學院(SRI)的國際人工智慧中心的相關計劃,而這個單位獨立出來後則成為了Siri Inc.。
最初的Siri是1960年代被美國國防部作為「在複雜情境下的電腦智慧能力發展」計劃,在多年的研究後,史丹佛研究學院在透過一堆超強人才的協助下,開創了一條創新之路。這個研究計劃一共被資助了長達40年以上,而蘋果買的就是這個研究成果,其中包含了一狗票頂尖大學的研究團隊結果,內容包括了對話以及自然語言理解、機器學習等等一堆高深技術。
對的時間與對的科技
早年的語音辨識以及人工智慧失敗已經有許多的突破點,主要因為電腦的運算能力以及作業系統的工作能力有大幅成長,摩爾定律加上網際網路以及蘋果的硬體能力,配上40年的研究成果,組合出了Siri今日的結果,Siri主要專注在此一科技的3大重點:
§ 對話介面 (Conversational Interface)
§ 個人情境感知 (Personal Context Awareness)
§ 服務委派 (Service Delegation)
§
第4代電腦介面
Siri將成為第4代,也許也是最重要的與裝置互動的方式。鍵盤、滑鼠與手勢仍然會常見,不會立刻消失。但人類最有效的溝通方式就是透過說話,最大的障礙就在於,如果把一個簡單的問題轉換成裝置理解的方式,並有對應的回答,古老的一個蘿蔔一個坑的問答方式不會立刻不見,但是想像如果你對機器問個簡單問題,就好像是對圖書館管理員或者是朋友般自然,這將會非常、非常的強大。
裝置小需要更聰明
螢幕永遠是不夠大的,跟搜尋引擎不一樣的是,Siri更專注在行動使用的情境模組,比如說地點、時間、個人歷史以及限定的情境,使其能夠發揮強大的智慧助手功能。小螢幕、行動情境以及有限的手機頻寬,使得聲音成為最好的問題溝通介面,提供適當的細節並給予適當的問題。
在行動環境下,你沒很多時間翻閱一堆頁面來找連結、在介面裡頭切換或者是打開應用程式來找到答案,一個簡單的語音問題解決使用者20個手動工作,這就是Siri的威力。
完成工作是終極目標
傳統的輸入系統,我們可能要花很多時間搜尋以及步驟才會找到結果,而且要全部做完才能找到結果,透過Siri,他會幫你直接略過中間所有步驟直接到結果。
§ 幫你把事情作完
- 垂直以及水平搜尋
- 即時同時結合多重資訊來源
- 即時以動態標準編輯資訊
- 介接終端,比如說購買票券等等
§ 理解你說什麼 - 對話意向
- 地點情境 Location context
- 時間情境 Time context
- 任務情境 Task context
- 對話情境 Dialog context
§ 了解你- 學習個人化資訊並執行行動
- 你的朋友/家人有誰
- 你住哪
- 你的年齡
- 你喜歡什麼
透過雲端要產出可接受的結果,這要包含以下的東西:
§ 地點感知
§ 時間感知
§ 任務感知
§ 語意資料
§ 雲端API連接
§ 任務以及主控模組
§ 對話介面
§ 文字轉換為意向
§ 語音轉化為文字
§ 文字轉化為語音
§ 對話流程
§ 個人資訊以及人口統計資訊
§ 社交圖譜 (Social Graph)
§ 設交資料 (Social Data)
當然蘋果的A5 雙核心處理器處理的許多前端的工作,但主要的感知資料都在雲端,並準備用來處理語音辨識完的資訊。
實際使用
在蘋果的發表會上,Siri的操作是「按鈕然後問」,但實際上他能夠長時間放著被問問題,不需要按鈕啟動,但要被優化還要等到強大的噪音過慮以及啟動辨識技術被開發出來,同時間Siri也可以被與Bluetooth 4耳機最佳化,可想而知的是,這樣就能夠連續的語音辨識以及偵測問題。
未來,Siri將可以長時間的處於啟動狀態,並視情境來確定是否回答問題(這不就是霹靂車的夥計嗎?),這將使得這個介面更像是與朋友互動。
原文網址:http://www.inside.com.tw/2011/10/12/iphone-4s-siri
看完上面節錄的文章內容後,是不是更了解SIRI了呢?想了解更多的同學,建議大家上去看看。另外,上次跟大家提到蘋果的siri姐也開始說日文了,其實早在去年,就也有說到今年也會發布中文、韓文、義大利文、西班牙文等語言支援,只是不知道在今年什麼時候siri姐才會開始說中文呢?
留言列表