About Me

我的相片
台北市, Taiwan
我是方選,
方白科技(finebind tech.)共同創辦人,
臺大資管所畢,
希望能幫助更多的人!

FB: http://fb.com/function1122
LINE: http://bit.ly/1foeZft (手機開啟點擊網址自動加入)

最新15則讀者回應

最新文章

FUNction's 上課筆記

Label Cloud

Blog Archive

FeedBurner

追蹤者

中英混雜自發性語言語音辨識之研究

FUNction 於 2010年6月17日 晚上8:41 發表

在meeting 中常聽到:

  • 你有什麼comment?
  • 這是個good point!
  • 在這個Algorithm中,我們會先…

雖然既有的單語辨識系統已經漸趨成熟,但在實務上,雙語辨識系統的確有其需要。要建構中英雙語辨識系統,必須要考慮兩種語言的特性,並加以整合。此外,實務應用上的「自發性語音(spontaneous speech)」常伴有許多的停頓、重複、無意義的語助詞或不完整的段落。而且演說者常會把英文說得有點想像中文,例如facebook會說成「非死不可」之類的,也會增加辨識的難度(中:英 = 9:1 左右)。

中英連續語音辨識技術
英文是多音節的拼音語言,一個word可以由一到多個音節所組成,因此音節(或稱音素phoneme)是英文的最小單位。而音素根據發音方式可以分為子因與母音,因此英文辨識以因素為基礎,將音素串辨識為字串。

中文以單音節為基礎,一個字一個音節,往下細分可分成聲母(Initial)、韻母(Final)與聲調(Tone),其中聲調的部分在辨識時不一定需要,而聲母、韻母就像英文基本單位的子音語母音。中文連續辨識系統都是以辨識次音節(聲母、韻母)為基礎。要辨識出完整的中文字串,就是在連續語音中辨識出「聲 韻 聲 韻 聲 韻」的序列,再根據「聲+韻」不同的組合辨識出不同的單字,進而辨識出完整的字串。由於中文有上萬字,但不計聲調的「聲+韻」組合只有約450個,因此儘管能正確辨識出音節,卻不一定能選出正確相對應的字,也因此必須仰賴辭典及語言模型以得到最可能的字串。就像注音輸入法錯字的問題,基本上注音輸入法能辨識出正確的音節(包含聲母、韻母與聲調),有1345種可能的變化,但中文也僅10000常用字,卻有可能發生「韓劇跟西洋句一樣差勁,我都不喜歡」辨識成「含巨根吸陽具一樣插進,我都不喜歡」的笑話@@

因此中英混和辨識必須:

  • 找出最好的雙語聲學模型:必須解決目前中英兩種單語系聲學基本單位不同的問題,中文基本單位是聲母韻母、英文則是音素
  • 建立雙語文字語發音相對應辭典:只要定義出聲學基本單位即可解決這個問題
  • 採用最適合的語言模型:過去單語言模型不敷使用,但訓練雙語言模型之語料不易取得

中文與英文在書寫系統上最大的不同,是中文文句沒有明顯的分隔,分隔方法也會影響句子的意義,例如「沒雞、鴨也好」或「沒雞,鴨也好」就是兩種不同的意思。在研究中通常使用辭典斷詞法,斷詞結果完全取決於辭典內的詞。若領域有限,不需要很大的辭典,辭典過大反而會引起混淆,因此如何建立或選擇辭典也是一大考量因素。另一個需要考慮的是語言模型,由於雙語語料為兩種語言混合使用的結果,因此較無規律的語法,須採用「統計式(Statistics-Based)」,由訓練語料根據統計特性得到語言模型。

《以課程錄音為基礎的中英雙語語音辨識之初步研究》的重要方法與成果如下:

  • 定義有限領域的中英雙語辭典:使用背景辭典將語料斷詞後,找出出現頻率一次以上的多字詞3940個,語背景辭典常見單字5901個,透過抽詞程式抽取合理的多字詞數個,合成12322個專業領域用詞(中文10767個、英文1555個)
  • 聲學模型:定義四套不同音素集
  • 語言模型:雙語模型、三連語言模型、以詞群為基礎的語言模型;以兩份不同背景語料建立調適語言模型
  • 重要結果:雙語平均單詞正確率51.97%;中文最佳值66.11%;英文最佳值66.77%

雙語語音辨識的基本架構
要讓電腦「聽懂」使用者的話,必須經過一連串的處理程序,如下圖所示:

DSC01565

連續語音辨識不是直接對取樣後的數位訊號加以辨識,因為人類發音器官的限制,聲音訊號是連續且緩慢的,所以必須取一小段時間內相近而穩定的語音訊號,將之視為音框(Frame),存一個因框中抽取出一組對辨識有用的特徵參數,建立特徵向量,再針對一系列代表實際語言的特徵向量進行辨識。為了避免突兀的訊號變化,通常因框間會彼此重疊,以保證所抽取特徵向量的代表性。辨識結果取決於:

  • 聲學模型:由語音資料所建立,中文裡最小單位是聲母跟韻母,英文中是音素。
  • 辭典:將發音與詞對照,選擇不同大小、領域、語言的辭典,也會對辨識結果造成影響
  • 語言模型:透過足夠的文字資料,經由辭典做適當的斷詞,計算出前後詞之間的相互關係,以其辨識系統能根據語言模型辨識出最合理的文句。因此訓練語言模型的文字語料必須跟目標便是語料相匹配,此外必須能涵蓋辨識的範疇。

聲學模型
要發展多國語言辨識,必須先用「聲學模型」進行判斷,以下介紹一些現有的研究:

  • 國語+台語:前專使用國台語混和聲學模型,在辭典中定義國台語的發音,統一以中文輸出(如果先端先辨識是國語還是台語,會造成辨識力低落)
  • 廣東話+英語:外語母語化問題相當明顯,故以廣東話為母語的英語語料進行訓練,使用詞性將外語部分分為多個詞群。
  • 法語+英語:定義單純法文、英法共用、單純英文三種音素集,從法語母語選出英法共用、單純英文適當的訓練資料,建立統合的聲學模型
  • 日文:將外語資料是為辭典外字彙(OOV),可以先得到主要語言中的資訊

《以課程錄音為基礎的中英雙語語音辨識之初步研究》的作者將實驗語料分成兩部分,文字語料作為語言模型的訓練;語音語料作為聲學模型的訓練及辨識用。

辭典製作與工具
下圖為製作辨識專用辭典的方式。作者將文件經過辭典斷詞後,取出出現一次以上的多字詞,並使用抽辭程式抽出老師上課的文字語料中少數具有詞的特性的多字詞,並將曾出現過的迎文辭會抽出,合併後與單字組成較小的辭典。
DSC01566

研究顯示斷詞與抽取出詞的好壞不會直接影響辨識率,例如複合詞「數位語音處理」與「數位」、「語音」、「處理」,辨識效果後者反而較佳。但若使用過大且內容廣泛的辭典,辨識率會遠低於定義後較小的辭典,辭典大小才是影響辨識率的關鍵。

下表呈現該實驗使用的語音辨識軟體相關工具:

工具 開發單位 用途
HTK Toolkit v3.3/3.4 Cambridge 特徵抽取、聲學模型訓練、辨識搜尋解碼
SRILM SRI STAR Lab 語言模型訓練
PatTree抽詞程式 琳山大大lab 自目標語料抽出新詞
CKIP 中研院 斷詞

國語音素集使用郵鄭秋豫定義的SAMPA-T標音方式(SAMPA-T包含國、閩南、客語)與梁柏宇的NTU-98;英文採用美國腔的CMU音素集。

語言模型
中文存在相當多的同音字,在一千三百多個合法音節中,對應的合法字元卻超過一萬四千個。透過聲學模型可以輔助系統「猜測」較為合理的詞(具有獨立語意,且扮演特定語法功能的字串)串。N連馬可夫鏈語言模型(N-gram Markov Chain Language Model)是統計式語言模型,估算由詞串所組成字串的出現機率,是目前世上最普遍且效能最好的語言模型。但已三連模型為例,若句子中包含一個未見的三連字串,則無論其餘字串機率為何,計算結果必為0。因此若語言模型的訓練語料不足,造成估測的失準,必須使用平滑法建立更好的語言模型。

SRILM提供的N連語言模型訓練程式使用退化平滑(backoff smoothing)法,透過建立門檻,當三連詞串在訓練語料中出現次數過多時,直接使用該三連字串在訓練語料中出現的機率;出現過少時則使用古德-圖靈函數(Good-Turing Function)調整字串機率;若未出現於訓練語料中,則根據正規化條件,由高斯模型的機率到低階模型的機率(按:這段是啥阿…我好像沒有一句看懂Orz)

實驗結果

  • 更改音素集可以得到明顯的進步,特別在中文正確率上。
  • 英文單詞進步率之提升,仰賴語言模型的調整。因為語言模型裡中英文比為87:13,而音素集裡中英文模型比為63:39,因此調整語言模型可以提高英文辨識。
  • 不符合目標語料的背景語料完全無法為辨識系統帶來任何進步。
  • 以詞群為基礎的語言模型幾乎完全無法發揮作用,可能是因為目標語料口語化、沒有明顯語法結構所造成。所以若要使用詞群概念,可能要考慮階層性的詞群。

參考資料:以課程錄音為基礎的中英雙語語音辨識之初步研究
注:本文是我從以上論文所摘錄的重點筆記,圖片均來自該論文中,若有冒犯煩請告知,放在Blog除了作為研究筆記,也希望能促進學術研究與交流風氣,在此深表對研究者的感謝!

繼續閱讀全文 中英混雜自發性語言語音辨識之研究

建立中文廣播新聞摘要之研究

FUNction 於 2010年6月15日 中午12:23 發表

中文語音辨識
語音文件無法被概括性的瀏覽,只能循序瀏覽到最後才能了解整篇文件要表達的含意。相同內容,由不同的人說出來的語音文件,除了聲調、音量外,口音也會使每篇語音文件顯得不同。即使是相同的人,也會因為環境、身體狀況而改變語音文件的品質。

「索引特徵」是資訊檢索、分類系統表示文件或使用者問句的基礎。在中文裡,特徵分為詞(word-level)、字(Character-level)以及音節(syllable-level)三個層次。結構上中文具有以下特質:

  • 中文一個字就是一個音節
  • 單字通常是詞素(morpheme),詞素是帶有語意的最小單位
  • 詞的界限不明顯
  • 有許多的同音字

新詞容易被創造、理解是另一大特色,例如「高鐵」。這些詞通常不存在於檢索分類的辭典,但是他們與文件的核心概念通常密切相關。由此可知,中文的構詞相當具有彈性,要統計中文的詞數其實相當困難。但是中文所有可能的音節只有1345個(不計音調只有450個),且常用字大概只有7000到10000左右。根據琳山大大實驗室的研究,雖然中文可能的詞總數相當大,但是都是由一到數個字串接而成,而且音節數大於等於3時,唯一性相當高,因此音節段(Syllable Segment)層次的資訊在中文資訊檢索與分類中扮演非常重要的角色。此外中文新詞出現太快,加上詞的界限不明顯,使斷詞工作存在歧異性。但若以音節層次作為索引特徵,對於辭典外詞彙(Out of Vocabulary, OOV)將會有很大的改善。

使用不同特徵詞進行事件偵測
分別使用雙音節(double syllables)、單詞(single word)與雙字(double character)作為索引特徵,在專有名詞與關鍵詞部分,經過語音辨識後用派樹抽詞法(pat-tree)和文字在機率式潛藏語意模型上的主題亂度所擷取出來。研究發現使用不同索引特徵各有其優缺點,使用詞的辨識錯誤率較高,但提供的資訊量較豐富;使用字辨識錯誤率較低,但提供的資訊較含糊;一般而言,使用雙音節結果較好。將方法結合,發現單字結合雙音節,並使用機率式潛藏語意分析或機率模型效果最好。

按:其實我仍然對「單音節」與「單字」的差別不了解,但從研究結果而言,單字的辨識效果較好,所以我的猜測是單字是語音辨識後經過詞庫的比對而產生出來確切的字,例如將「ㄏㄠˇ」(單音節)辨識成「好」(單字),因為同樣是「ㄏㄠˇ」這個因,仍然有好、郝、恏三個字,所以單字比單音節更為明確。

事件總數之選定
讓電腦決定要分成幾類非常困難,因為就連人類專家也會因為背景知識不同,分類的結果也不盡相同。在新聞的研究中,新聞事件的產生時間受到許多額外因素的影響,所以每則記事沒辦法構成如下的次數-時間分布圖

DSC01563 
圖中是五個事件被很多不同記事報導的時間頻率圖,從圖可知,若用電腦判斷還可能分不出那些頂峰屬於哪個事件,而錯估了事件的數量

根據研究,使用階層式聚合分群法搭配時間衰退函數,可以產生最準確的結果。演算法概念是先用階層式聚合分群演算法對記事文件分群,直到記事文件的相關度小於某一門檻值即停止分群動作。接下來再根據分群後的群聚數目預測事件總數。

建立事件摘要的方法
目前建立摘要的方法簡單說就是從描述事件的所有句子(Sentence)中計算每句的重要性,擁有最高重要性的句子就成為這個事件的摘要,句子數量是依照使用者喜好調整的。常使用的方法是詞頻反文句頻(TF-ISF)與機率潛藏與一模型的主題亂度,根據使用者測試,詞頻反文句頻的結果較好,如下表所示:

新聞 人工撰寫 TF-ISF 文字-主題亂度
台北市長選戰 台北市長選戰由馬英九和李應元對決,陳水扁總統為李應元站台,發表台灣腳和香港腳談話批評馬英九,而馬英九也反擊回去
  1. 年底台北市長選舉
  2. 民進黨台北市長候選人李應元再度出招
  • 全國人民自有公道
  • 年底台北市長選舉
辛樂克颱風 中度颱風辛樂克侵台
  • 中度颱風辛樂克來勢洶洶
  • 中度颱風勒克直撲台灣而來
  1. 繼續向西前進
  2. 檢視了電線桿還有線路
台灣第十度參與聯合國失敗 台灣第十度參與聯合國失敗
  1. 台灣參與聯合國第十度叩關失敗
  2. 聯合國總務委員會沒有通過中華民國台灣的入會申請案
  • 提案又被封殺
  • 已經表達對我方善意
國內登革熱疫情上升 國內登革熱疫情持續上升,病例數直逼兩千
  • 登革熱疫情持續發燒
  • 動手清除孳生源
  1. 動手清除孳生源
  2. 要把蚊子趕盡殺絕
第四屆漫畫博覽會 第四屆漫畫博覽會開幕
  1. 漫畫博覽會今天開幕
  2. 第四屆漫畫博覽會開幕現場三百多個攤位
  1. 漫畫博覽會今天開幕
  2. 他甚至開玩笑的說

詞頻反文句頻(Term Frequency multiplied by Inverse Sentence Frequency, TF-ISF)與傳統的TF-IDF類似,但將文件單位縮小成句子,公式如下:

TFISFi,j = (1 + ln cnti,j)*ln(Ms/Mfi)

是索引特徵fiy在文具sj中出現次數,Ms是該事件所有的句子總數,Mfi是有出現fi的句子數(文句頻, Sentence Frequency)。有了TF-ISF我們便能計算每一個句子的重要性分數。

事件呈現方法
Robert B. Allen提出了編年式方法呈現事件(按:類似Plurk),簡而言之,在時間軸上安置多個事件,每個事件可以點開看到多筆記事的標題,點選標題則可聽到語音檔案。

在語音檢索系統中,使用者可以藉由語音輸入查詢相關文件,一般而言被區分為多個模組,如下圖所示:

DSC01564

內容:

  • 語音文件收集、模型訓練、轉寫、特徵抽取:是建置系統的前置作業,必須先收集好需要的文件,成為一個文件資料庫,收集好之後便將此文件資料庫當作模型的訓練語料,如前端語音辨識需要的聲學模型、語言模型,文件檢索核心需要機率式潛藏語意模型,事件分析與擷取需要機率模型、把文件加以轉寫、擷取重要資訊(例如TF-IDF、類專有名詞、其他關鍵詞等)。由於模型訓練需要大量時間,所以必須在離現時完成,供其他元件使用。
  • 前端語音辨識:使用者執行語音查詢時的互動單元,與文件收集與模型訓練不同之處在於前端語音辨識需要即時(Real Time)完成,故並非所有便是引擎能勝任。
  • 文件檢索核心:牽涉兩個重要議題,一是索引技術,如何表示文件與使用者問句;二是如何衡量文件相關程度。
  • 結果之視覺化呈現:檢索結果通常包含多筆資料,必須有組織呈現才能減少使用者的檢索成本。在這篇paper中,以樹狀結構將「類專有名詞」作為類別的節點,進行階層式的表達。另一種方式是如前所述,用時間軸前後順率供使用者瀏覽,理論上兩種方法相輔相成。

展望
語音辨識經常使用隱藏式馬可夫模型(Hidden Marko Model),可以將記事文件的時間當作是所觀察到的現象,如果利用此模型將事件分析與擷取所要進行的工作,或許是不錯的選擇。

參考資料語音文件之事件偵測與時間分析─以廣播新聞為例 (其實跟上一篇一樣XD)
注:這兩篇是我看以上論文時所摘錄的重點,圖片均來自該論文中,若有冒犯煩請告知,撰寫的目的是作為我研究的筆記,也希望能促進學術研究與交流風氣,故在Blog上發表,在此深表對研究者的感謝!

繼續閱讀全文 建立中文廣播新聞摘要之研究

新聞事件偵測與時間分析之研究

FUNction 於 2010年6月14日 下午1:37 發表

主題事件的分類(TDT, Topic Detection and Tracking),五大追蹤方向

  1. 文件切割(Story Segmentation):將依則包含許多新聞的文件切割成許多單獨新聞的文章
  2. 主題追蹤(Topic Tracking):找出新進文件是否與之前主題相關
  3. 主題偵測(Topic Detection):將探討鄉圖主題的文件分類
  4. 第一則新聞偵測(First Story Detection):判斷新進文件是否屬於新的主題或是尚未討論過的主題
  5. 連結偵測(Link Detection):隨意取出兩則文件,判斷此兩則文件是否屬於同一主題

大型語料的主題分析最受矚目的是「自組性語意對應圖(Self-Organizing Semantic Map)」,許多研究使用此方法;另外「機率式潛藏語意分析(Probabilistic Latent Semantic Analysis)」所發展的語意對應圖(Probmap)屬於強大且較新的研究。

文件分類大概有三種主要的方法

  1. 階層式聚合分類演算法(Hierarcy Agglomerative Clustering Algorithm):最基本
  2. K-means
  3. 變色龍演算法(Chameleon Algorithms):較新穎

主題(Topic)、事件(Event)與記事(Story)

  • 記事代表一段可以提供使用者某種資訊的文字,例如一則新聞
  • 事件是某件特定的事,有特定的發生時間與地點,由一個或多個描述相通事情的記事所組成
  • 主題是由相關的事件合併而成

除了TF-DIF之外,還有海寧格距離(Hellinger Distance)也可以衡量文件的相關程度。事件偵測有兩個特徵,專有名詞與時間資訊,專有名詞通常分為:人名、地名與組織名,通常專有名詞在文件中比一般詞重要,因此在TF-IDF中,通常會將專有名詞作加權總合。所以會將人名、地名與組織名分開計算,再依照權重與一般詞的關聯加總,產生總體的關聯度。最簡單的方法是若兩篇文獻都有相同的專有名詞,相關程度為1,反之為0。

機率式潛藏語意分析(Probability Latent Semantic Analysis)
自傳統潛藏式語意分析理論而來。傳統潛藏式語意分析使用Singular Value Decomposition的方式,對document-word matrix進行簡化。機率式潛藏語意分析以隨機狀態起始,並以最大期望值來做區域最佳化。因此每次不同隨機狀態起始的結果不同,故可結合多個潛藏語意分析模型做出不同變化的語意分析。

在語料庫訓練下,可以估計主題z產生文件d的機率:P(d|z),結合各個不同主題上的機率後,便可以得到文件d在所有主題上的機率分布。透過貝氏定理可以計算出給定文件d產生主題z的機率。

P(z|d) = (P(d|z)*P(z))/P(d)~P(d|z)*P(z)

利用機率模型進行事件偵測與時間分析
一個記事(Story)可以用四種資訊表達:When、Who(人與組織名)、Where與What(其他關鍵詞),但是事件(Event)包含兩個時間資訊(記事開始與記事結束)。其他關鍵詞是用機率式潛藏語意模型的主題亂度(Term Entropy)所找到除了類專有名詞外的關鍵詞。假設這四種資訊相互獨立:

P(story) = P(persons)P(location)P(keywords)P(time)

DSC01561 
記事的生成模型由四個模型所混合─三類名詞單元與時間戳記,上圖中E代表事件、D代表記事,P、L、K分別表示人、地、其他關鍵字,N是名詞;T是時間。所以每篇記事都有四個向量,一份文件的同個向量可以成為一個list(例如人名表)。接著可以藉由計算每個list在事件中發生的機率,取得記事在事件中發生的機率。

重要事件的過濾
判定新聞室否重要需要許多新聞相關的背景知識,例如顯著性(Prominence)、奇異性(Conflict)與鄰境性(Proximity)等。顯著性代表新聞內容的影響力,探討新聞內容影響哪些層面;奇異性代表這則新聞是否報導若干特意少見的事情;鄰境性代表這則新聞所發生的所在地與接收者是否在地理上相近。這些知識大都以人類知識為基礎,加上主觀的判斷而成,故以統計分析難度較高。

因此使用四個過濾器進行事件重要性過濾:

過濾器 內容 效率
類專有名詞與關鍵詞法 若一事件不包含類專有名詞(人名、地名與組織名)與其他關鍵詞,此事件可能不是描述重要記事的文件,可以刪掉一小部分。 只刪掉6篇,錯誤率0
TF-IDF 若TF-IDF低於某門檻值,此事件可能不是描述重要記事的文件。 錯誤率約1/3
文件在機率式潛藏語意模型之主題亂度法 假設只有兩篇記事文件(記事1與記事2)、三個主題(主題A、主題B與主題C)。記事1在三個主題的涵蓋度都很平均;記事2在主題B的機率很高,另外兩個主題很低,代表記事2與主題B明顯相關。因為記事1分布平均,可推測記事1不是描述重要事件的文件。
亂度越低,代表機率分布越不平均。所以可以設定一個門檻,若主題亂度高過這個門檻,則必須將記事刪除。
錯誤率約2/9
文件相關度法 通常重要事件會有許多記事文件報導,通常使用cosin來測量事件的相關度,相關度越高代表越重要。 錯誤率約1/8

所以其實篩選器誤刪正確文章的機率都蠻高的,不可能疊在一起使用。找出正確事件應該有兩種作法:

  1. 先用較好的篩選器篩選(留下有意義的事件記事),再使用階層式+時間將記事分群找出事件
  2. 直接使用機率式模型(PROB)對所有的記事進行分群

新聞實驗的語料庫
基本資料(人工專家產生):

來源 大陸中央社廣播新聞
範圍 2002/7/1~2002/10/1(CBN2002) 共982篇,平均140.2字
類專有名詞 人名517、地名437、組織名695 (派樹抽詞法)
其他關鍵詞 2000個 (機率式潛藏語意模型主題亂度)
事件數 共59個事件(Event),286個記事(Story)

藉由專家對語料庫的事件辨別,評比分群與過濾的方法,結果發現階層式聚合分群演算法在文件雜訊較多時,效果並不理想;但使用機率式潛藏語意分析或機率模型,對雜訊的抗拒力較高。當文件數量較少、資訊較明確,階層式聚合分群法的結果將會顯著提升,而機率式潛藏語意分析會因為訓練資料較少,進步幅度受到限制,但機率模型的結果仍然不差。

機率式潛藏語意分析家上時間資訊打亂了詞與文件的關係,所以效果比純粹機率式潛藏語意模型還差;事件偵測結果的好壞與係數初始值設定息息相關,利用機率模型系數的初始職可以得到較佳的結果。

參考資料語音文件之事件偵測與時間分析─以廣播新聞為例

繼續閱讀全文 新聞事件偵測與時間分析之研究

99台大資管所榜眼上榜心得:感恩篇

FUNction 於 2010年6月5日 下午1:25 發表

我想第一要感謝的還是我的家人,他們知道我要考試讓我能安心念書,不需要操心家務。特別感謝老爸老弟,是老爸才讓我抓住這個嘗試的機會,而老弟陪我一起念書(雖然我唸書的時間不多,而且考前的周末我老弟還跟朋友去彰化玩三天兩夜XD),讓我有共同奮戰的感覺!

image  
結果我瘋狂的在我家樓下的門貼上榜文,這是我與老爸的合照XD

第二是感謝文昌爺爺,雖然筆試的時候我沒有拜祂,因為我覺得我準備的不夠,拜祂是一種褻瀆。但是我跟我自己講,如果進了口試,我就有資格拜祂。果然他給我力量,讓我在台大獲取更多的資源,造福社會。口試時我一直帶著祂的御守,一定是因為祂的守護,才能讓我能如此順利…

接下來,要感謝我的老師及主管

  • 政大的老闆:他給我很多中肯的建議,讓我自己考慮,也使我深深覺得老闆對學生開明的態度幾集體會到他的關愛。他對我說,如果光就名字來說,這兩間學校真的差不多,但是你去那裡勢必多花一年,所以你必須思考這一年是否值得…
  • 研究所導師尚孝純老師:我想我能上,有超過一半的原因是尚老師幫我寫的推薦信。老師對我說,學校只是一個同學互動的平台,他告訴我我現在帶著政大的嫁妝,擁有一年研究生的基礎,這是比其他考生來說還更有優勢的。他也很鼓勵我追逐自己的夢想,也給了很多重要的資訊,包括政大推的服務創新、老師在面試時的心態以及書審資料排版的建議…
  • 輔大的林文修吳怡瑾老師:老師們聽到我能有運用兩間學校資源的機會,義不容辭地成為我書審資料的推薦人。真的好感動,離開學校這麼久了,老師們都還是如此熱情,真不愧是我當年覺得的恩師…其實真的覺得輔大好有人情味,這是在很多地方所感受不到的。之前一直說要找機會回學校找老師,到現在都還沒回去,也讓我覺得很對不起他們。
  • 微軟的主管Rick:這學期真的承蒙他幫很多忙,不論是雲端運算的演講還是這件事。Rick在facebook聽到我的消息,也是責無旁貸地留下他的聯絡資料,當我的推薦人幫我背書。說真的,這種一臂之力的幫助在這樣重要關頭真的很溫馨,這是我所不敢奢求的,也希望Rick能一切順利…

我政大的夥伴們

  • Deduce:你那天的「十幾個人只有三個」一番話,給我很多啟示,讓我在心裡對你說,你認識的第四個人就在你眼前!
  • 阿金:你給我許多寶貴的資訊、義不容辭地答應幫我模擬面試(雖然後來因為我時間不夠),還花了很多時間回答我因為擔心而語無倫次的爛問題,寫mail給我。真的心裡除了感激,我不知道怎麼說才好…
  • 小白:你一樣給我許多建議,而且要不是你我可能沒辦法這麼有決心應戰,說好的「同學」,你會一直是我的夥伴。
  • Aki:雖然平常在學校講到話的機會不多,但是那陣子你真的幫我大忙,我一輩子也不會忘記。你不只給我中央的那個有用的BBS,還幫我發問,跟我分享面試的經驗以及可能的關卡…雖然最後好像沒有猜中,但是你的熱心讓我很感動!
  • 阿塞Demon花花一個學長:你們幫我模擬面試真的太感人了!阿塞的問題好犀利:「你說你想走技術為什麼不報資工」讓我囧了三天。也是因為你們的面試讓我回家仔細思考,才能把在書審資料寫出我想表達的東西,也才能在真正面試表現得這麼順利!另外某個學長的一席話「政大同學都在看,就像王建民一樣大家都會較好」給我很大的鼓勵,那時也讓我覺得我一定會讓你們叫好的!(btw某學長是誰呢…我還是不知道他名字XD)
  • 柳橙:那天要走的時候在圖書館前面遇到,你跟我說你想之後很難看到我,然後用簡單的一句話破解了阿塞給我的難題,讓我信心滿滿!

資種的夥伴們

  • 神秘人:你堅持不透露姓名,我也就順從你了!感謝你提供研究所的經驗分享資訊,寫了好幾封的mail。但最讓我感動的其實是放榜的後續幫忙,你很熱心地幫我查了好幾次時間,提供我非常多重要的資料。也許你不知道,我真的很佩服你,希望你在未來也一切順利,往後的日子請多多指教了!
  • 瑋凌:你很用心!除了伴我考試的御守,還寫了mail跟我分析了很多對考試的重要資訊,真的對我很有幫助。我想有些感謝是難以用一兩句話表達的,這讓我不知道該怎麼辦。總之希望你一切順利,如果有需要幫忙盡管跟我說吧!
  • 小熊:謝謝你去台南特別帶的禮物,考試時我一直帶著,果然非常的具有加持的效果!雖然後來你好像忙到爆炸了,不過我真的很感謝你喔^^
  • 桂慈:你每次的用心都讓我驚艷!小小的祝福卡片,卻都能給我很大的鼓勵。你知道考試的時候我一直把那些祝福放在我的資料夾中嗎?口試的時候也是一樣。當你說「你已經在榜上看見我名字」,以及每次告訴你好消息你的回應,都能讓我感受到你那炙熱的眼神。
  • 可樂:一起擔任春酒的主持人,真的很感謝你對我準備考試的體諒和包容,以及每次每次的祝福。記得有一次你還傳進訊跟我說唸書加油…讓我覺得受到很多很多的支持,果然一句鼓勵可以撼動宇宙阿!跟你合作是段很快樂的時光,真的。
  • 浩威:「考試加油?」讓我露了餡,果然是金頭腦那麼有觀察力,真是高深莫測。還有口試時你一樣給我祝福,以及最後送我的鑰匙圈紀念品(雖然有人說那不好看,可是我覺得那跟我很合XD)。總之有金頭腦的祝福果然大大加持阿~
  • 尉池:考前的加油簡訊,以及一起念書的短暫時光(抱歉那天一直在嘴砲害你補習遲到),很謝謝你的鼓勵,也希望你未來一切順利。

我的老夥伴們

  • 小觀:那天吃飯謝謝你給我很多非常寶貴的經驗,但最讓我感動的是你晚上還寫mail來關心我、幫我想對策,過幾天也打電話來問我情況。這種關心讓我覺得很滿足,雖然最後沒有採取你的建議,可是我已經充分地感覺到你那種強烈的支持。
  • 小朱:雖然是我千里迢迢的到土城跟你借MIS,但是跟你講話就讓我覺得充滿活力,就像以前一起考試一樣,好有信心!總之希望你也能一切順利。
  • 玉璋:考前,你的關心總是少不了,而口試完後我跟你說我的情況,你也告訴我不要想太多。真的很感謝你的那種友情贊助!一樣希望你今年考試順利:D
  • 尉伶:剛放寒假就找你幫忙,當時剛動完手術,你說你其實可以幫我把書送來台北…讓我聽了很感動!那天原本要請你吃飯的,可惜你堅持要各付各XD雖然後來比較少聯絡,但我深深的覺得,認識你真好!btw後來我還特別到圖書館把那天借的書寫了我已經考上了,並留下mail,希望能幫助輔大的學弟妹,也算是還願…
  • 小廖:你一樣阿,總是少不了你的祝福!而且你還會自己去幫我查榜,也太感人了吧XD今年你也要考試了,我對你很有信心,到時候我們再一起慶祝吧!!
  • 惠菁:雖然我們不是很熟(可是大一迎新好像還在同一組XD),但真的很感謝你提供的老師資料,以及撥冗回答我問題。現在容我叫你一聲學姊囉!

還有,很多口頭或MSN、FB上鼓勵我的朋友:歐萌柏均103章威亞霖育聖阿掰雋文彥璋庭宇蘇宅國傑…以及默默為我祈禱的,我知道你一直在那裡。

上一篇:99台大資管所榜眼上榜心得:口試篇

繼續閱讀全文 99台大資管所榜眼上榜心得:感恩篇