AlphAI 22 activities PPT

Page 1

202309

ETC Educational Technology Connection (HK) Ltd

AlphAI
個簡單活動
ppt/pdf)
22
(老師上堂輔助

Table Of Content

With Level of Difficulty

Ref. Description Level 4a Robot Race (機械人比賽) 1 4b Robot Race (機械人比賽) - 加入障礙物 3 4c Robot Race (機械人比賽) - 加入隧道 3 5a Reinforcement Training - Blocked vs Motion 強化式學習法 (被阻了/撞牆了vs 行走中) 3 5b Reinforcement Training - Obstacle Avoidance 強化式學習法 (避開障礙,避免撞牆 ) 3 6a Car Parking(黑線追蹤+泊車+停) 2 6b Parking 自動泊車(L位) 3 6c Advanced Parking 自動泊車(S位) 3 7a 另類沿線行走(用相機) 1 7b 另類沿線行走(白線比賽行得遠) 3 8 KNN 演算法 3 Ref. Description Level 1 智能及人工智能(避免撞牆) 1 2a Line Classification(黑線分類) 1 2b Line Tracking(黑線追蹤) 1 2c Line Tracking(不走出黑圈) 2 2d Line Tracking(推走垃圾) 2 2e 推走垃圾 - 小量的模擬訓練 2 3a 訓練識別可口可樂罐和Perrier瓶 1 3b 人臉識別 1 3c 識別中文字「上、下、左、右」 2 3d 訓練虛假 AI 2 3e 識別 “戴上口罩” 的「貓、狗」 2

1. Avoid Hitting Wall (避免撞牆)

學習目標

● 透過AlphAI 幾個簡單的實驗,介紹甚麽是智能和甚麽是人工智能,讓同學有能力 去分辨智能及人工智能。

學習內容

● 甚麼是智能?

○ 智能就是擁有學習、推理、理解、及決策的能力。

● 那麼,甚麽是人工智能呢?

○ 人工智能是已經開發了擁有某些人類能力的電腦系統,它可以模仿人類做某 些工作。

○ 成功的人工智 能是像人類一樣,擁有學習、推理、理解、及決策的能力。

1.

Avoid Hitting Wall (避免撞牆)

材料: Parameter 參數 : “U01 avoid

hitting wall.json”

一個由四塊紅 色牆組成的正 方形區域

Sensor (Input) 傳感器 相機8 x 6;灰度

Action (Output) 行動 行動;原地轉彎

AI Supervised Learning, Neural Network 監督學習,神經網絡

Visualization 可視化

OFF only <network value>; 僅<網絡值> Off

1.

Avoid Hitting Wall (避免撞牆)

活動A - 控制下的駕駛(沒有啓動 “學習” 模式)

- 啓動”重設學習” <reset learning> 按鈕

- 關掉 “自動駕駛“ <self drive> 的按鈕

- 關掉 “學習“ <learning> 的按鈕。

討論 - 機械人有沒有移動?點解?

- 機械人有沒有撞牆?點解?

- 機械人有沒有智能?

- 用螢光幕右手邊的箭嘴控制機械人移動。 用滑鼠輕按所需要的箭嘴,揀選動作。

- 當機械人距離圍牆 5至10厘米,點擊 “向 左轉”或 ”向右轉”按鈕,教導機械人避免 撞到圍牆。否則向前行

1. Avoid Hitting Wall (避免撞牆)

活動B - 只懂得”向前行” 的機械人自主駕駛(少量智能)

- 啓動”重設學習” <reset learning> 按鈕

- 關掉 “自動駕駛“ <self drive> 的按鈕

- 開啟 “學習“ <learning> 的按鈕。

討論 - 機械人有沒有移動?點解?

- 機械人有沒有撞牆?點解?

- 機械人有沒有智能?

- 機械人有沒有足夠智能避免撞牆?

- 點擊 “向前” 箭嘴一次,讓機械人懂得向前 行。

- 關閉 “學習” 按鈕。代表學習已經完成。

- 開啟”自動駕駛”進行測試

1. Avoid Hitting Wall (避免撞牆)

活動C - 訓練機械人避免撞牆

- 啓動”重設學習” <reset learning> 按鈕

- 關掉 “自動駕駛“ <self drive> 的按鈕

- 開啟 “學習“ <learning> 的按鈕。

討論 - 機械人有沒有移動?點解?

- 機械人有沒有撞牆?點解?

- 機械人有沒有智能?

- 機械人有沒有足夠智能避免撞牆?

- 訓練機械人避免撞牆。

- 當機械人行到距離牆 5至10厘米時,教導 機械人轉彎,避免撞牆。

- 重複以上步驟 15 至 20 次,包括不同角度 行向牆,包括行向角位等等。

- 關閉 “學習” 按鈕。代表學習已經完成。

- 開啟”自動駕駛”進行測試

1. Avoid Hitting Wall (避免撞牆)

總結

活動A是一個遙控模式(Remote Control)的駕駛。機械人在移動,是因為有人控制着。機械 人沒有撞到牆,是因為有人控制着他不撞牆。機械人是沒有智能的,智能是在控制的人身 上。

活動B 展示一個只有少量智能的機械人。它只懂得一種移動方法,就是向前行。因為沒有 被訓練過轉彎,所以它是會撞到牆的。他擁有少量智能,但是沒有足夠智能去避免撞牆。

如果訓練得好,活動C的機械人是會移動的,它亦可以避免撞牆。這個機械人是擁有足夠 的智能去避免撞到牆的。

2a. Line Classification(黑線分類)

學習目標

認識紅外線作為輸入。

認識如何訓練人工智能模型。

認識AI 的輸入-處理-輸出(IPO)框架。

學習內容

● 使用5個紅外線作為輸入,並在不同的輸入上加上(分類的)身份標籤來訓練人工智能模 型。

● 訓練完成,人工智能模型就可以用來分辨出是哪種類型的輸入,並與訓練數據中的標籤 進行比較,以決定分類(輸出)。輸入-處理-輸出(IPO)框架。

2a. Line Classification(黑線分類)

材料 : Parameter 參數 : “U02a Classification.json”

一些黑膠帶和剪刀

Sensor (Input) 傳感器

IR sensor; detect black; 5 sensors

紅外線傳感器;檢測黑色; 5個傳感器

Action (Output) 行動 (分類的)身份標籤

Label : Centre , Left , Right ,None

AI

Visualization 可視化

Supervised Learning, Neural Network 監督學習,神經網絡

OFF only <network value>; 僅<網絡值> Off

2a. Line Classification(黑線分類)

2a. Line Classification(黑線分類)

- IR Sensor 變成黃色(數值接近1) 代表它在黑線上 , 選擇黑線在機械人那一邊 ?

- 以下圖為例 , 左面第2個 IR Sensor 在黑線 , 因此選左

- 假如 Sensor 全黑代表是 None。

2a. Line Classification(黑線分類)

總結

訓練機器人時應該基於其感應器的輸入數值進行決策,而非人類的觀點(同學看到機械人 情況)。理解機器人的感應器輸入並相應地進行訓練是至關重要的,以確保它學習到所期 望的行為。

此外,在開始時向學生提供額外的指導並讓他們嘗試訓練是一個寶貴的學習經驗。如果他 們遇到困難時,老師可以提供指導和建議以改進。

2b. Line Tracking(黑線追蹤)

學習目標

認識紅外線作為輸入。

認識如何訓練人工智能模型。認識AI 的輸入-處理-輸出(IPO)框架。

將輸出轉為動作,讓機械人沿着黑線走。

學習內容

● 使用5個紅外線作為輸入,並在不同的輸入上加上動作標籤來訓練人工智能模型。

● 訓練完成,人工智能模型就可以用來分辨出是哪種類型的輸入,並與訓練數據中的標籤 進行比較,以決定及執行應該的動作(輸出)。輸入-處理-輸出(IPO)框架。

2b. Line Tracking(黑線追蹤)

材料 : Parameter 參數 : “U02b Line Tracking.json”

Speed 速度設成 15-20

Sensor (Input)

傳感器

Action (Output)

行動

AI

Visualization

可視化

IR sensor; detect black; 5 sensors

紅外線傳感器;檢測黑色; 5

個傳感器

動作標籤

- Forward, SlightTurns (Left and Right)

- 向前移動,輕微轉彎(向左和向右)

- “Duration” sets to 0.2 seconds to ensure fast refresh of data and calculation.

- 持續時間設置為0.2秒,以確保數據和計算的快速刷新。

Supervised Learning, Neural Network

監督學習,神經網絡

OFF only <network value>; 僅<網絡值> Off

一些黑膠帶和剪

2b. Line Tracking(黑線追蹤)

總結

訓練機器人時應該基於其 感應器的輸入數值進行決策,而非人類的觀點 (同學看到機械人情況) 。理

解機器人的感應器輸入並相應地進行訓練是至關重要的,以確保它學習到所期望的行為。

如果機器人在右側感測器下方感知到膠帶,將其訓練為 “向前”可能不太合適。相反,更好的做法是 當機器人感知到右側有膠帶時,將其訓練為 “右轉”。這樣,機器人將把右側的膠帶與右轉動作聯繫 在一起,從而產生更準確的行為。

訓練成功的因素是:

- 將機械人的速度校到很慢( 15-20)

- 將機械人的Duration (under Action) 校到很短時間(0.14-0.2 seconds)

- 訓練要包括全部可能性。

- 不容計有錯誤的訓練。訓練的準確度比訓練的數量更重要。

- 要有耐性。

2b. Line Tracking(黑線追蹤)

2c. Line Tracking(不走出黑圈)

學習目標

認識紅外線作為輸入。

認識如何訓練人工智能模型。認識AI 的輸入-處理-輸出(IPO)框架。

將輸出轉為動作,讓機械人不走出黑圈。

學習內容

● 使用5個紅外線作為輸入,並在不同的輸入上加上動作標籤來訓練人工智能模型。

● 訓練完成,人工智能模型就可以用來分辨出是哪種類型的輸入,並與訓練數據中的標籤 進行比較,以決定及執行應該的動作(輸出)。輸入-處理-輸出(IPO)框架。

● 雖然學習內容與2b 相若,但是,訓練的方法是完全不同的。想一想,要怎樣訓練才可以 不走出黑圈呢?

● 可以直接用2b 的圓形黑線圈做這個活動。

2c. Line Tracking(不走出黑圈)

材料 : Parameter 參數 : “U02b Line Tracking.json”

A4 黑色紙 Sample : “A4 Black.pdf”

Speed 速度設成 15-20

A4紙和剪刀 把 4張 A4 黑色紙摺成右圖的樣子 , 圍出一個方形框

2c. Line Tracking(不走出黑圈)

五點都在黑線

⇒ 轉左 (記得每次轉同一方向 )

左面在黑線 ⇒ 轉左 右面都在黑線 ⇒ 轉左

2c. Line Tracking(不走出黑圈)

五點都在木板上

⇒ 向前

請觀察那一個 Sensor 被 Trigger

然後選擇相應動作

切勿只看機械人的位置

2c. Line Tracking(不走出黑圈)

總結

訓練機器人時應該基於其 感應器的輸入數值進行決策,而非人類的觀點 (同學看到機械人情況) 。理

解機器人的感應器輸入並相應地進行訓練是至關重要的,以確保它學習到所期望的行為。

訓練成功的因素是:

- 將機械人的速度校到很慢( 15-20)

- 將機械人的Duration (under Action) 校到很短時間(0.14-0.2 seconds)

- 訓練要包括全部可能性。

- 不容計有錯誤的訓練。訓練的準確度比訓練的數量更重要。

- 要有耐性。

2d. Line Tracking(推走垃圾)

學習目標

應用 “機械人不走出黑圈”的AI模型,去推走圈內的垃圾。

學習內容

● 一個很有趣的課堂上可進行的比賽活動。

● 讓同學加配努力去訓練自己隊伍的AI機械人去比賽,集學習與娛樂於一身。

2d. Line Tracking(推走垃圾)

材料 : Parameter 參數 : “U02b Line Tracking.json”

A4 黑色紙 Sample : “A4 Black.pdf”

- 可以直接用2b 的圓形黑線圈做這個活動。

Speed 速度設成 15-20

A4紙和垃圾 加入一些障礙物 , 讓 AlphAI 在黑線圈內行駛同時推走垃圾

2e. 推走垃圾 - 小量的模擬訓練 學習目標

小量模擬訓練的AI模型,可以去推走圈內的垃圾嗎?

學習內容

● 讓同學思考要多少訓練的AI 模型才可以用呢!

● 讓比賽更加緊張。

○ 一個很有趣的課堂上可進行的比賽活動。

○ 讓同學加配努力去訓練自己隊伍的AI機械人去比賽,集學習與娛樂於一身。

2e. 推走垃圾 - 小量的模擬訓練

材料 : Parameter 參數 : “U02b Line Tracking.json”

A4 黑色紙 Sample : “Black line only.pdf”

- 可以直接用2b 的圓形黑線圈做這個活動。

Speed 速度設成 15-20

黑線紙和垃圾 只在「Black line only」A4紙上進行訓練 , 然後在剛剛的垃圾場應用 , 看看你的人工智能能否轉換。

3a. 訓練識別可口可樂罐和Perrier瓶

學習目標

這單元將會為你介紹電腦視覺的基本概念。 電腦視覺是一種透過不同技術使機器能 夠處理及分析真實

世界的圖像,並將其轉化為機器能 夠理解的 一項AI應用。因此,電腦視覺是 AI應用的一種非常重要的輸 入方法。 當你明白及理解電腦視覺這一工具,你就能 夠輕鬆地及有趣地設計及完成很多的 AI實驗了。

學習內容

● 電腦視覺 (computer vision) 使機器能夠由數碼影像中獲取很有用的資訊,並且透過處理及分析這

些資訊,能夠做出一些 決定。如果AI使到電腦能夠思考,電腦視覺就是使到機器能 夠看見。

● 電腦(機器)看一個數碼影像 時, 影像是被切割成多個區。

AlphAI 稱這些區為 “像素” (pixels)。你可 以將 AlphAI 內的相機調校成不同的像素,例如 2x1,4x3, 8x6,36x24, 640x480, 等等。

● 像素越大,機器將能 夠更準確分辨到影像的形狀及仔細部份。但是,這樣做將會需要更多的電腦 儲存位及更大的電腦處理器;是非常昂貴的。

● 影像可以是灰階的(黑白) , 亦可以是彩色的。當影像是彩色時, AlphAI 需要用上三色系統去處理, 輸入的數量就是灰階的三倍 了。

3a. 訓練識別可口可樂罐和Perrier瓶

材料: Parameter 參數 :

“U03a Coke and Perrier.json”

Coke Perrier

Sensor (Input) 傳感器

Action (Output) 行動

相機 32 x 24 ● 彩色的

Label : Coke , Perrier , None

AI

Visualization 可視化

Supervised Learning, Neural Network 監督學習,神經網絡

OFF only <network value>; 僅< 網絡值> Off

3a. 訓練識別可口可樂罐和Perrier瓶

(2) 開始訓練

∙ 點擊<重置學習>按鈕一次; 關閉<自動駕駛>按鈕

∙ 點擊<學習>按鈕

∙ 訓練機器人識別“None 無” - 即沒有物體,只有背景

∙ 訓練機器人識別可口可樂罐

• 查看電腦屏幕上的攝像頭。

• 如果它被正確識別, 請點擊您想要訓練機器人識別的正確輸出 。

• 等待直到厚黃色連接指向所需輸出。

• 所需輸出的輸出神經元也應該變成黃色,其 值應該增加並變得最大。

• 使用相同的物體,將其稍微向左移動(或向右或向上或向下),並點擊 正確分類的輸出。

∙ 重複此步驟4-6次。

∙ 對其他物體(例如 Perrier瓶)進行上述訓練。

(3) 測試

∙ 關閉<學習>按鈕。

∙ 點擊<自動駕駛>按鈕。機器人 將使用學習的智能來識別物 體。

∙ 使用沒有物體、可口可樂罐和 Perrier瓶進行測試。

∙ 結果是否正確?

∙ 如果結果不是100%正確,您可 能需要重新訓練一些卡片。

(4) 討論

∙ 您的訓練智能是否有效 ?

∙ 這可以應用於其他領域嗎?

3a. 訓練識別可口可樂罐和Perrier瓶

總結

● 監督式學習法 (Supervised Learning) 是最流行的AI學習法。它可以和神經網絡配合使用 ,效果非常理想。

● 監督式學習法的核心概念是 ”模仿” 。 它有兩個階段。第一個階段是 “訓練”,第二個階段是 “測試或應 用” 。

● 在 “訓練”階段,當看到每一個 輸入影像,機械人會 “模仿”訓練員的決定(相關的標籤輸出)。大量的訓練 資料會被使用, 讓機械人觀看;同時,訓練員亦會對每一影像畫面,作出一 個決定。透過這樣的訓練,神 經網絡內的有關數值會被修改,而神經網絡慢慢地就擁有 “模仿” 人類做決定的能力了。

● 在 “應用”階段,機械人就能 夠對新的影像作出決定了。

要點

○ 人工智能AI 是需要 “訓練”的。

○ 監督式學習法 (Supervised Learning) 是人工智能AI的一種學習方法。

○ 監督式學習法需要訓練資料 (training data)。

○ 訓練資料分別有输入的和對應每一個輸入相關的(標籤)輸出。

○ 透過觀看每一個輸入影像及相關的輸出決定,機械人慢慢便學會 “模仿”訓練員的決定了。

○ 如果要獲得高質數的人工智能 AI,是需要大量及非常準確的訓練資料的。

3b. 人臉識別

學習目標

● 加深對電腦視覺、監督式學習法和訓練AI模型的理解及應用。

學習內容

● 透過訓練 AI 模型去識別人臉。

3b. 人臉識別

材料:

人臉

Parameter 參數 :

“U03b Face Recognition.json”

Sensor (Input) 傳感器 相機 32 x 24 ● 彩色的

Action (Output) 行動

AI

Visualization

- 刪除2個輸出“Adrian”和“Jane”。

- 添加所需自定輸出的數量,將名 稱作為輸出標籤。

Supervised Learning, Neural Network

監督學習,神經網絡

<network
僅<網絡值>
可視化 OFF only
value>;
Off

3b. 人臉識別

(1)訓練

∙ 點擊<重置學習>按鈕一次。 關閉<自動駕駛>按鈕。

∙ 點擊<學習>按鈕。

∙ 要求一名學生將機器人握在手中,以便即使其輪子轉 動,它也不會移動。

∙ 使用機器人的相機對著參與者的臉,按下5次正確標 記的輸出(操作)。此操作用於識別參與者。

(2) 測試(使用)

∙ 關閉<學習>按鈕。點擊按鈕。機器人將使用 學習的智能來識別臉部。

測試第一位參與者 - 測試第二位參與者測試第三位參與者等。

∙ 結果是否正確?

∙ 如果結果不好,您可以添加更多的訓練。

成功人臉識別的提示

∙ 臉部應覆蓋75-80%的屏幕圖像。越接近臉越好。

∙ 對於同一參與者,每次使用相同的背景。使用簡單的 背景。

∙ 每次拍攝同一參與者的照片時,稍微移動相機。

(4) 討論

∙ 機器人能否正確識別人臉?

∙ 機器人在訓練後是否獲得了智能?您如何 知道?

∙ 您能否注意到隱藏層?有多少層?

∙ 對其他參與者重複上述操作。

3b. 人臉識別 總結

● 重溫 3a 的 監督式學習法 Supervised Learning(總結及要點)。

(只限高階)簡介「隱藏層 Hidden Layers」- 神經網路有三種不同的層:

● 輸入層 - 神經網絡需要一個輸入層去接收輸入資訊,讓層內的神經元及連接可以作出處理及計算, 並且 將計算結果傳送到下一個層。

● 輸出層 - 神經網絡一定有一個輸出層。輸出層接收到由之前所有層處理過的訊息,並作最後計算及 處 理,將計算出的輸出數值放在輸出元內。

● 隱蔽層 - 隱蔽層是介乎輸入層和輸出層之間的層,可以是一個,亦可以是多個的。

○ 隱蔽層是隱藏在神經 網路內的,正常情況下是看不到的,這就是為何被稱為 “隱蔽層” 了。

○ 隱蔽層會用複雜及高深的數學去處理資訊。這使神經網路能夠擁有學習複習工作及事物的能 力。

○ 隱蔽層使神經網路成為最優秀和最強大的機械學習演算法。

○ 用AI去處理複雜的問題,隱蔽層是必須的。

○ 如果使用大量的隱蔽層或者隱蔽層內有大量的神經元,這時,神經網絡就需要大量的時間去 處理資 訊和計算結果了。

○ 有多個隱蔽層的神經網絡被稱為 “深度神經網絡”,它擁有 “深度學習” 的能力。

3c. 識別「上、下、左、右」

學習目標

● 加深對電腦視覺、監督式學習法和訓練AI模型的理解及應用。

學習內容

● 透過訓練 AI 模型去識別中文字。

3c. 識別「上、下、左、右」

材料: Parameter 參數 : “U03c

上下左右 Sign

打印 <direction>pdf

Chinese Character.json”

Sensor (Input) 傳感器

相機 32 x 24 灰度

Action (Output)

行動

Label : Right , Left , Up , Down , None

AI

Visualization

可視化

Supervised Learning, Neural Network 監督學習,神經網絡

OFF only <network value>; 僅<網

絡值> Off

3c. 識別「上、下、左、右」

(2) 開始訓練

∙ 點擊<重置學習>按鈕一次; 關閉<自動駕駛>按鈕

∙ 點擊<學習>按鈕

∙ 訓練機器人識別“None 無” - 即沒有物體,只有背景

∙ 訓練機器人識別不同的 中文字 ;

• 查看電腦屏幕上的攝像頭。

• 如果它被正確識別, 請點擊您想要訓練機器人識別的正確輸出 。

• 等待直到厚黃色連接指向所需輸出。

• 所需輸出的輸出神經元也應該變成黃色,其 值應該增加並變得最大。

• 使用相同的字卡,將其稍微向左移動(或向右或向上或向下),並點擊 正確分類的輸出。

∙ 重複此步驟4-6次。

(3) 測試

∙ 關閉<學習>按鈕。

∙ 點擊<自動駕駛>按鈕。機器人 將使用學習的智能來識別方 向。

∙ 使用沒有字卡、四個方向的 中 文字進行測試。

· 結果是否正確?

∙ 如果結果不是100%正確,您可 能需要重新訓練一些卡片。

(4) 討論

∙ 您的訓練智能是否有效 ?

· 這可以應用於其他領域嗎?

3c. 識別「上、下、左、右」

總結

● 重溫 3a 的 監督式學習法 Supervised Learning(總結及要點)。

3d. 訓練虛假 AI

學習目標

這單元將會為你顯示:人工智能AI 所作出的決定不一定是對的。有時,因為訓練錯誤或訓練不 足,AI 的智能是會作出錯誤決定的。更甚者,不法之徒是會蓄意訓練一些錯誤AI,欺騙別人 的。

學習內容

● 今次的AI 工作是要訓練機械人去分辨中文字「上、下、左、右」。

● 同學們會被分成多組,每組大約四個人,可多可少。一半的組是 “真AI” 組別,另一半的 組是 “假AI” 組別。

○ “真AI” 將會訓練機械人正確地分辨「上、下、左、右」。

○ “假AI” 將會訓練機械人錯誤地分辨「上、下、左、右」。

3d. 訓練虛假 AI

材料:

上下左右 Sign

打印 <direction>pdf

Parameter 參數 : “U03c

Chinese Character.json”

Sensor (Input) 傳感器

Action (Output) 行動

相機 32 x 24、灰階

Label : Right , Left , Up , Down , None

AI

Visualization

可視化

Supervised Learning, Neural Network 監督學習,神經網絡

OFF only <network value>; 僅<網

絡值> Off

3d. 訓練虛假 AI

(2) 開始訓練

∙ 訓練過程跟 5a 一樣 , 但這次訓練分成 2組 : 「真AI」及「假AI」

· 「真AI」 將會訓練機械人正確地分辨 「上、下、左、右」。

· 「假AI」 將會訓練機械人錯誤地分辨 「上、下、左、右」。

(3) 測試

∙ 關閉<學習>按鈕。

∙ 點擊<自動駕駛>按鈕。機器人 將使用學習的智能來識別方 向。

∙ 使用沒有字卡、四個方向 進行 測試。

∙ 結果是否正確?

(4) 討論

∙ 請 「真AI」 隊及 「假AI」 隊輪流 分享結果。

∙ 為什麼相同的一張咭,在兩隊 上得到的結果會不同呢?

∙ 如果 「假AI」 被應用在日常生活 上,會有什麼後果呢?

∙ 你可以舉行出一些可能有嚴重 後果的 「假AI」 例子嗎?

3d. 訓練虛假 AI

討論

● 是甚使到機械人有能力去分辨中文字呢?

● 請 “真AI” 隊及 “假AI” 隊輪流分享結果。

● 為什麼相同的一張咭,在兩隊上得到的結果會不同呢?

● 如果 “假AI” 被應用在日常生活上,會有什麼後果呢?

● 你可以舉行出一些可能有嚴重後果的“假AI” 例子嗎?

總結

● 在使用監督式學習法時,訓練用的資料是否正確是非常之重要。正確的訓練資料,會訓練出能 夠作出正確決定的智能。相反地,不正確的訓練資料,會訓練決定不正確的智能。

● 在真實世界裡,不正確的決定有時可以導致很嚴重的後果和很大的損失。虛假或錯誤的AI,有 時是因為訓練錯誤或訓練不足。但是,有時不法之徒是會蓄意訓練一些錯誤AI, 欺騙別人的。

3e. 識別「貓、狗」

學習目標

AI 如何識別貓狗的相片。

學習內容

● 訓練及測試 AI 如何識別貓狗的相片。

● 帶了口罩後的貓狗,AI 能否識別呢?

3e. 識別「貓、狗」

材料:

上下左右 Sign

打印 <dogcats>pdf

Parameter 參數 : “U03e

Recognition (Cats and Dogs).json”

Sensor (Input) 傳感器

相機 32 x 24 , 3 color

Action (Output)

行動

Label : Dog , Cat 提議兩隻貓及兩隻狗。請為它們掣做不同名 字的 customer output labels.

AI Supervised Learning, Neural Network 監督學習,神經網絡

Visualization 可視化

OFF only <network value>; 僅<網絡值> Off

3e. 識別「貓、狗」

(2) 開始訓練

∙ 點擊<重置學習>按鈕一次; 關閉<自動駕駛>按鈕

∙ 點擊<學習>按鈕

∙ 訓練機器人識別貓、狗 ;

• 查看電腦屏幕上的攝像頭。

• 如果它被正確識別, 請點擊您想要訓練機器人識別的正確輸出 。

• 等待直到厚黃色連接指向所需輸出。

• 所需輸出的輸出神經元也應該變成黃色,其 值應該增加並變得最 大。

• 使用相同的圖片,將其稍微向左移動(或向右或向上或向下), 並點擊正確分類的輸出。

∙ 重複此步驟4-6次。

(2.1) 加入更多貓狗圖片

· 訓練機器人識別更多貓、狗 (提議兩隻貓及兩隻狗。請為它們掣做不 同名字的 customer output labels.)

(3) 測試

∙ 關閉<學習>按鈕。

∙ 點擊<自動駕駛>按鈕。機器人將 使用學習的智能來識別方向。

∙ 使用不同圖片進行測試。

· 結果是否正確?

∙ 如果結果不是100%正確,您可 能需要重新訓練一些卡片。

(4) 討論

∙ 您的訓練智能是否有效 ?

· 這可以應用於其他領域嗎?

3e. 識別「貓、狗」

是你嗎?

(3) 測試

∙ 關閉<學習>按鈕。

∙ 點擊<自動駕駛>按鈕。機器人將使用學習的智能來 識別貓、狗。

∙ 使用不同圖片進行測試。

· 為貓(或狗)戴上口罩(mask),看看已經訓 練好的 AI 模型是否可以辦認到?

· 結果是否正確?

(4) 討論

∙ 您的訓練智能是否有效 ?

3e. 識別「貓、狗」

討論

● 您的訓練智能是否有效?

總結

● 帶了口罩後的貓狗,AI 能否識別呢?

○ 當貓狗的臉從相似的角度、相似的面部表情、或臉未被遮蓋時,相似度會 更高,認出的機會就大了。

○ 當貓狗的臉從不同的角度、不同的面部表情、或部份臉被遮蓋時,相似度 較低,就可能認不出了。

4a. Robot Race (機械人比賽)

學習目標

親身訓練及體驗「無人駕駛」的AI 模型。

學習內容

● 用監督式學習法 (Supervised Learning) 訓練「無人駕駛」的 AI 模型。

● 訓練資料 (training data) 應該包括什麼呢?

4a. Robot Race (機械人比賽)

材料:

Parameter 參數 : “使用Demo參數 “Robot Race”

Racing Circuit

4a. Robot Race (機械人比賽)

(1)訓練

∙ 點擊<重置學習>按鈕一次。關閉<自動駕駛>按 鈕。

∙ 點擊<學習>按鈕。

∙ 將機器人放在起點。觀察機器人,點擊屏幕右側 的箭頭來移動機器人。

∙ 首先,點擊“向前”箭頭移動機器人。讓機器人進 入賽道。

∙ 訓練2至3圈重複上述步驟。

**您可以重新執行訓練,嘗試處理機器人可能遇 到的更多情況。例如,撞到牆壁或進入轉彎。進 行更多訓練將使機器人更聰明。

(2) 測試(使用)

∙ 關閉<學習>按鈕。點擊<自動駕駛>按 鈕。機器人將使用學習的智能來移動。

∙ 測試機器人是否準備好比賽。

∙ 2至3個機器人一起開始比賽。

(4) 討論

∙ 機器人能參加比賽嗎?為什麼?

∙ 有哪些輸入?您使用了多少個輸入?

∙ 有哪些輸出?機器人比賽中有多少輸 出?

∙ 已經實現了學習嗎?

∙ 機器人在訓練後是否獲得了智能?

∙ 討論監督學習法的概念。

**假如剛剛一步訓練錯誤,可以選擇忘記最後一 步(forget last step) ,去刪除最後一步錯誤的學 習。

4a. Robot Race (機械人比賽)

討論 (中、高階)

● 機械人懂得沿着賽道移動嗎?為什麼機械人懂得沿着賽道移動呢?

● 對於這個實驗,輸入是甚麽?有多少個輸入(像素)?

● 輸岀是甚麽?有多少個輸出?

● 學習有沒有發生過?機械人是否獲取了智能?討論甚麽是監督式學習法。

總結 (中、高階)

● 訓練重點:首先是教導機械人順利圍圈跑;不要接近紅色牆,不要接近黑色牆。轉彎時,行深一 些,避開中間的黑色牆。

● 中階訓練:當機械人接近紅色牆時,懂得轉右走出來,避免撞紅牆。當機械人接近黑色牆時, 懂得轉左走出來,避免撞黑牆。

● 高階訓練:撞到了紅色牆時,懂得走出來(轉右)。撞到了黑色牆時,懂得走路出來(轉左)。

● 死位訓練:當轉彎時,封死在黑牆的邊緣上,懂得轉出來。封死在角位上,懂得轉出來。

● 最後,將速度調教到一個平衡水平,快但不失控。

4b. Robot Race (機械人比賽) - 加入障礙物

學習目標

親身體驗一架人工智能無人駕駛的汽車,在公路上奔馳,遇到了未見過的情況,不懂怎樣應對 ,後果會怎樣呢?

學習內容

● 在4a 的跑道上放一些障礙物。

● 用4a 訓練好的AI 模型,試行有障礙物的跑道。

4b. Robot Race (機械人比賽) - 加入障礙物

材料: Parameter 參數 :

“使用Demo參數 “Robot Race”

Racing Circuit 加入障礙物

4b. Robot Race (機械人比賽) -

加入障礙物

*如果沒有4a 訓練好的AI 模型,請重新訓練一個 ,才開始 4b 的活動。

● 在4a 的跑道上放一些障礙物(如下圖)。

● 用4a 訓練好的AI 模型,試行有障礙物的跑 道。

● 結果如何?點解?

● 怎麼辦?

4b. Robot Race (機械人比賽) - 加入障礙物

(1) 增加訓練

(a) 再次開啟<學習> , 訓練機械人避開障礙物 ⇒ 加入「Training Data」到目前的訓練上

(b) 點擊<重置學習>按鈕一次

∙ 關閉<自動駕駛>按鈕。

∙ 點擊<學習>按鈕。

∙ 訓練機械人圍繞賽道行走並避開障礙物

(2) 測試(使用)

∙ 關閉<學習>按鈕。點擊<自動駕駛>按 鈕。機器人將使用學習的智能來移動。

∙ 測試機器人是否準備好比賽。

∙ 2至3個機器人一起開始比賽。

(4) 討論

∙ 機器人能避開障礙嗎?為什麼?

∙ 你加入了什麼訓練?

∙ 加入訓練和重新訓練有什麼分別?

⇒ 重新訓練

4b. Robot Race (機械人比賽) - 加入障礙物

總結 (中、高階)

● AI 的運作是需要訓練的,而訓練是需要大量的輸入資料的。

● 見過、訓練過的情況,它就學懂如何去模仿及處理。

● 如果遇到在訓練時未見過的情況,它就��能作出決定或者作出不適當的決定了。

● 所以,足夠的訓練對AI 是非常重要的。

● 在活動 4b 中,新加入的障礙對於機械人來說是未遇過的情況,所以它不懂如何應對。這時, 增加訓練是必要的。

4c. Robot Race (機械人比賽) - 加入隧道

學習目標

4c 與 4b 的目的相若,是讓同學親身體驗一架人工智能無人駕駛的汽車,在公路上奔馳,遇到 了未見過的情況,不懂怎樣應對,後果會怎樣呢? 學習內容

● 在4a 的跑道上加入隧道。

● 用4a 訓練好的AI 模型,試行加了隧道的跑道。

4c. Robot Race (機械人比賽) - 加入隧道

材料: Parameter 參數 :

“使用Demo參數 “Robot Race”

Racing Circuit 加入隧道

4c. Robot Race (機械人比賽) - 加入隧道

(1)訓練

(a) 再次開啟<學習> , 訓練機械人穿過隧道 ⇒ 加入「Training Data」到目前的訓練上

(b) 點擊<重置學習>按鈕一次

∙ 關閉<自動駕駛>按鈕。

∙ 點擊<學習>按鈕。

∙ 訓練機械人圍繞賽道行走穿過隧道 ⇒ 重新訓練

(2) 測試(使用)

∙ 關閉<學習>按鈕。點擊<自動駕駛>按 鈕。機器人將使用學習的智能來移動。

∙ 測試機器人是否準備好比賽。

∙ 2至3個機器人一起開始比賽。

(4) 討論

∙ 機器人能穿過隧道嗎?為什麼?

∙ 你加入了什麼訓練?

∙ 加入訓練和重新訓練有什麼分別? 那個比較容易?

4c. Robot Race (機械人比賽) - 加入隧道

總結 (中、高階)

● AI 的運作是需要訓練的,而訓練是需要大量的輸入資料的。

● 見過、訓練過的情況,它就學懂如何去模仿及處理。

● 如果遇到在訓練時未見過的情況,它就��能作出決定或者作出不適當的決定了。

● 所以,足夠的訓練對AI 是非常重要的。

● 在活動 4c 中,新加入的隧道對於機械人來說是未遇過的情況,所以它不懂如何應對。這時 ,增加訓練是必要的。

5a. Reinforcement Training -Blocked vs Motion 強化式學習法 (被阻了/撞牆了vs 行走中)

學習目標

在這一個單元,會為大家介紹一種高階的AI 學習法 - 強化式學習法。

學習內容

● 透過正確設定奬勵(和懲罰)機 制,機械人可以自學得到智力。

● 實驗的目標是要訓練機械人可以在四方形的埸地內不停地走動。

5a. Reinforcement Training -Blocked vs Motion

強化式學習法 (被阻了/撞牆了vs 行走中)

材料: Parameter 參數 :

“使用Demo參數 “Blocked vs Motion”

Racing Circuit

5a. Reinforcement Training -Blocked vs Motion

強化式學習法 (被阻了/撞牆了vs 行走中)

(1)手動編輯網絡 (Manual Edit)

停止選用「learning」並開啟「manual edit」

試將綠色「Motion」連至向前 , 紅色 「blocked」連至轉向

啟用「self-drive」觀察「Reward」與「Level」的變化

Reward : 機械人向前為 100 , 被阻、轉向為 - 50

Level : 過去1分鐘 Reward 的平均值

* 它有智能嗎 ?

5a. Reinforcement Training -Blocked vs Motion

強化式學習法 (被阻了/撞牆了vs 行走中)

(2)沒有學習 (No Learning)

停止選用「manual edit」並按下「reset learning」 , 然後按「self-drive」

AlphAI 怎樣行動 ? Reward 跟 Level 的數值是 ?

⇒ 不停自轉 , 2個數值都保持在 35

5a. Reinforcement Training -Blocked vs Motion

強化式學習法 (被阻了/撞牆了vs 行走中)

(3)強化式學習

停止選用「manual edit」並按下「reset learning」 , 選用「learning」然後按「self-drive」

(3b)觀察學習

留意 AlphAI 行動跟 Reward 及 Level 的關係

⇒ AlphAI 在一段時間後會「滿足」現在的

Level 跟 Reward 不再提升 , 例如 : 35 , 保持自轉

⇒ 這樣的學習好嗎 ? 可以更好嗎 ?

5a. Reinforcement Training -Blocked vs Motion

強化式學習法 (被阻了/撞牆了vs 行走中)

(4)強化式學習 (with exploration探索)

按下「reset learning」 , 增加選用「exploration」

然後按「self-drive」

(4b)觀察學習

留意 AlphAI 行動跟 Reward 及 Level 的關係

⇒ AlphAI 會出現隨機的 Output (探索時會變成藍 色)

- Level 最後的數值會較高 , 但花的時間會較長

- 試觀察 Weight 與選擇 Output 的關係

- 它會撞牆嗎 ? 為何 ?

5a. Reinforcement Training -Blocked vs Motion 強化式學習法 (被阻了/撞牆了vs 行走中)

總結 (中、高階)

● 強化式學習法(機械人自學)的原理是透過奬勵和懲罰去鼓勵機械人去做對某些動作。

● 機械人會去改變它的行為從而獲取最高的累積的平均獎勵分數。

○ 向前行走得越快越多,會得到更多奬勵。

○ 相反,停頓或向後行,就會被懲罰(被扣分)。

○ 要將等級提升,機械人要盡力向前行,同時間要減少停頓或向後行。

5b. Reinforcement Training -Obstacle Avoidance

強化式學習法 (避開障礙,避免撞牆)

學習目標

高階的AI 學習法 - 強化式學習法。

建基於5a,加了眼睛(相機),是否可以減少撞到牆呢?

學習內容

● 透過正確設定奬勵(和懲罰)機 制,機械人可以自學得到智力。

● 實驗的目標是要訓練機械人可以在四方形的埸地內不停地走動。

● 加了眼睛(相機),是否可以減少撞到牆呢?

5b.

Reinforcement Training -Obstacle Avoidance

強化式學習法 (避開障礙,避免撞牆)

材料: Parameter 參數 :

“使用Demo參數 “Obstacle

Avoidance”

Racing Circuit

5b.

Reinforcement Training -Obstacle Avoidance

強化式學習法 (避開障礙,避免撞牆)

(1)強化式學習

啟用「learning」及「exploration」

然後按「self-drive」

(1b)觀察學習

● 跟 「Blocked vs Motion」有什麼變化 ?

⇒ 轉向更多 , 因為轉向能取得 80分

⇒ 更少撞牆 , 因為加入了鏡頭分析

⇒ Level 的平均值應該更高

● 還會撞牆嗎 ?

● 機械人的速度和場地大小會影響學習嗎 ?

5b. Reinforcement Training -Obstacle Avoidance

強化式學習法 (避開障礙,避免撞牆)

總結 (中、高階)

● 強化式學習法(機械人自學)的原理是透過奬勵和懲罰去鼓勵機械人去做對某些動作。

● 機械人會去改變它的行為從而獲取最高的累積的平均獎勵分數。

6a.Car Parking(黑線追蹤+泊車+停)

學習目標

用機器學習(Machine Learning) 的監督式

學習法(Supervised Learning) 訓練自動泊

車(S 位)。

學習內容

● 向前泊車(S 位)

● 設計使用甚麽感應器(sensors) 及場 地(黑線追蹤),使訓練能夠順利完 成。

材料 :

Parameter 參數 : “U06a Parking.json”

Speed 速成設成 15-20 打印

<parking> pdf

Sensor (Input) 傳感器

Action (Output)

行動

stop

IR sensor; detect black; 5 sensors 紅外線傳感器; 檢測黑色;5個傳感器

- Forward, SlightTurns (Left and Right) , Stop+Buzzer

- 向前移動,輕微轉彎(向左和向右) , 停止+蜂鳴器

- “Duration” sets to 0.2 s to ensure fast refresh of data and calculation. 持續時間設置為0.2秒,以確保數據 和計算的快速刷新。

AI Supervised Learning, Neural Network 監 督學習,神經網絡

Visualization

可視化

OFF only <network value>; 僅<網絡值> Off

6a.Car Parking(黑線追蹤+泊車+停)

6a.

Car Parking(黑線追蹤+泊車+停)

跟過往的 line tracking 一樣

不同的是 None 變成 Park (5點黑)

請觀察那一個 Sensor 被 Trigger

然後選擇相應動作 切勿只看機械人的位置

6b. Parking 自動泊車(L位)

學習目標

用機器學習(Machine Learning) 的監督式學習法 (Supervised Learning) 訓練自動泊車(L 位)。

學習內容

● 向後泊車(L 位)

● 設計使用甚麽感應器(sensors) 及場地,使訓練 能夠順利完成。

6b. Parking 自動泊車(L位)

材料:

Arena 一些雜物

來製作 Parking route

Parameter 參數 : “U06b

L Parking.json”

Sensor (Input)

傳感器

Action (Output) 行動

相機 32 x 24 RGB , ultrasonic sensor

Backward , SlightTurn , Stop

AI

Supervised Learning, Neural Network 監督學習,神經網絡

Visualization

可視化

自行選擇 (不影響)

6b. Parking 自動泊車(L位)

(1)泊車路線

AlphAI 面向起點 (最好設有路標提示)

然後向後行駛到接近「可樂」時轉向

I.e. 第2個路標提示讓機械人學習

最後再向後駛至泊車處

⇒ 利用 Ultrasonic Sensor 加強識別距離

6b. Parking 自動泊車(L位)

(1)訓練

∙ 點擊<重置學習>按鈕一次。關閉<自動駕駛>按 鈕。

∙ 點擊<學習>按鈕。

∙ 將機器人放在起點。觀察機器人,點擊屏幕右側 的箭頭來移動機器人。

∙ 首先,點擊“向後”箭頭移動機器人。讓機器人開 始倒車。

然後轉向(緊記每次在同一位置轉)再倒車至停 車處。

∙ 訓練2至3次泊車重複上述步驟。

**假如剛剛一步訓練錯誤,可以選擇忘記最後一 步(forget last step) ,去刪除最後一步錯誤的學 習。

(2) 測試(使用)

∙ 關閉<學習>按鈕。點擊<自動駕駛>按 鈕。機器人將使用學習的智能來移動。

∙ 測試機器人是否能自動泊車至停車處。

(4) 討論

∙ 機器人能自動泊車嗎?為什麼?

∙ 有哪些輸入?您使用了多少個輸入?

∙ 有哪些輸出?

∙ 你能設計其他泊車場景嗎?

∙ 機器人在訓練後是否獲得了智能?

∙ 討論監督學習法的概念。

6c.Advanced Parking 自動泊車(S位)

學習目標

用機器學習(Machine Learning) 的監督式

學習法(Supervised Learning) 訓練自動泊 車(S 位)。

學習內容

● 向後泊車(S 位)

● 設計使用甚麽感應器(sensors) 及場 地,使訓練能夠順利完成。

6c.

Advanced Parking 自動泊車(S位)

材料: Parameter 參數 : “U06c

S Parking.json”

Arena 一些雜物 來製作 Parking route

Sensor (Input)

傳感器

Action (Output)

行動

AI

Visualization

可視化

相機 32 x 24 RGB / 64x48, ultrasonic sensor

Forward , Backward , SlightTurn , Stop

Supervised Learning, Neural Network 監督學習,神經網絡

自行選擇 (不影響)

6c.Advanced Parking 路線設計

(1)路線設計

- 利用不同 SIGNs 來讓 AlphAI 改變行駛方向

- 速度建議使用 20-25

⇒ 利用 Ultrasonic Sensor 加強識別距離

6c.Advanced Parking 訓練

1. 向前行駛直至看到 「START」

2. 向到 Start 時向右轉

6c.Advanced Parking 訓練

6. 倒至「P」時停止行駛 3. 直行直至看到黑色牆再右轉 4. 直行看到 sign 並在可樂旁邊時轉左 直至望向可樂罐 5. 望到可樂罐後開始倒後行

7a. 另類沿線行去(用相機)

學習目標

用機器學習(Machine Learning) 的監督式學習法 (Supervised Learning) 訓練沿線行去。

學習內容

用相機

7a. 另類沿線行去(用相機)

材料 :

Parameter 參數 : “U07a camera line tracking.json”

Speed 速成設成 15-20 建議使用 AlphAI

原裝的循線地墊

+

正方形 Arena

Sensor (Input) 傳感器

Action (Output)

行動

Camera 32 x 24 RGB

- Forward, SlightTurns (Left and Right)

- 向前移動,輕微轉彎(向左和向右)

- “Duration” sets to 0.2 s to ensure fast refresh of data and calculation.

持續時間設置為0.2秒,以確保數據 和計算的快速刷新。

AI Supervised Learning, Neural Network 監 督學習,神經網絡

Visualization 可視化

OFF only <network value>; 僅<網絡值> Off

7a. 另類沿線行去(用相機)

(1)訓練

∙ 點擊<重置學習>按鈕一次。關閉<自動駕駛>按 鈕。

∙ 點擊<學習>按鈕。

∙ 將機器人隨意放在黑線上,點擊屏幕右側的箭 頭來移動機器人讓它循黑線移動。

∙ 訓練2至3圈重複上述步驟。

**假如剛剛一步訓練錯誤,可以選擇忘記最後一 步(forget last step) ,去刪除最後一步錯誤的學 習。

(2) 測試(使用)

∙ 關閉<學習>按鈕。點擊<自動駕駛>按 鈕。機器人將使用學習的智能來移動。

∙ 測試機器人是否能做出循線。

(4) 討論

∙ 機器人能循線嗎?為什麼?

∙ 它與 IR Sensor 循線有什麼分別?

∙ 假如把 Arena 移走它還能做出循線嗎?

7b. 另類沿線行去 (白線比賽行得遠)

學習目標

用機器學習(Machine Learning) 的監督式學習法

(Supervised Learning) 訓練沿白線行去。

學習內容

比賽行得遠

● 訓練沿白線行去。

自己(及和前手合作)設計賽道

7b. 另類沿線行去(白線比賽行得遠)

(1) AI參數 “U02b Line Tracking.json”

材料:

• 4張 A4 跑道

• 透明膠紙

Speed : 15 , duration : 0.1 - 0.2

將 4 張 A4 賽道用膠紙接駁在一起。

訓練AlphAI 機械人行走白色線。

比賽:淘汰賽。和另外一隊的跑道 接駁在一起,5分鐘內比賽行 得遠(先行完接駁的跑道者勝 出)。

7b. 另類沿線行去(白線比賽行得遠)

● 第一步,要每組設計一條跑道。每組將獲 得4張A4 跑道,每组不是一樣的。大家用 膠紙將4張A4 跑道連接。請將A4 紙平行 連接,不可打斜邊。

● 第二步,訓練你的robot 沿着白線行,鬥 遠。

● 試賽:和鄰組試賽(連接8張A4)

● 鬥行得遠(距離)

● 出界位為最遠距離。記錄。

● 出界後可以從頭開始。

● 2分鐘為限。

● 如果兩隊都完成整個賽道,鬥快時間。

● 修正訓練

7b. 另類沿線行去 (白線比賽行得遠)

淘汰賽

• 賽道越接越長。

• 搓包剪揼,贏方揀從那一方開始

• 搓包剪揼,輸方行先

• 計時,鬥行得遠(距離)

• 出界位為最遠距離。記錄。

• 出界後可以從頭開始。

• 初賽2分鐘為限。進級後3分鐘為限。

• 如果兩隊都完成整個賽道,鬥快時間。

7b. 另類沿線行去 (白線比賽行得遠)

● 緊記1: 紙與紙之間要平衡 接駁,不能打斜。

● 緊記2: 之間白間應該減至 最細最少。

● 緊記3: 增加成功機會,當

5個 IR sensors 都在白線 上,訓練 robot 向前行。

7b. (挑戰賽) 比賽行得遠 - 小量的模擬訓練

● 只在一張A4紙上進行訓練 。

然後在剛剛的長賽道應用 , 看看你的小量訓

練AI 模型,是否在長賽道都可以應用。

● 討論。

8. KNN 演算法

學習目標

看看甚麽是 KNN演算法。

學習內容

● KNN 是一種舊式 AI 演算法。

● 學習及體驗一種早期的 AI 演算法。

8. KNN 演算法

材料: Parameter 參數 : “使用Demo參數 “KNN Camera”

Racing Circuit

8. KNN

演算法訓練原理

KNN 透過鏡頭上左右2組 superpixel 來進行訓練 , 白色的數值接近255(大)

貼近紅牆時 , 數值會變得極小(接近0) ; 就左右2組 superpixel 的數值

可得出以下訓練方法 :

轉向 , 每次請轉同一方向

向前 2組數值都很高 左轉 左面小 , 右面大 右轉

左面大 , 右面小

8. KNN 演算法

(1)訓練

∙ 點擊<重置學習>按鈕一次。關閉<自動駕駛>按 鈕。

∙ 點擊<學習>按鈕。

∙ 將機器人放在賽道中心。觀察機器人,點擊屏幕 右側的箭頭來移動機器人。

∙ 首先,點擊“向前”箭頭移動機器人。

靠牆剛轉向 ,訓練2至3圈重複上述步驟。

**您可以重新執行訓練,盡量讓鏡頭兩組Pixel Value 出現差距。例如,把它放至牆邊。

(2) 測試(使用)

∙ 關閉<學習>按鈕。點擊<自動駕駛>按 鈕。機器人將使用學習的智能來移動。

∙ 測試機器人在行駛時能否避免撞牆。

(4) 討論

∙ 有哪些輸入?您使用了多少個輸入?

∙ 觀察圖表嘗試歸立出像素數值對機械人 行動的影響。

∙ 已經實現了學習嗎?

∙ 機器人在訓練後是否獲得了智能?

∙ 討論KNN學習法的概念。

**假如剛剛一步訓練錯誤,可以選擇忘記最後一 步(forget last step) ,去刪除最後一步錯誤的學 習。

∙ 加入更多鄰居會有什麼變化?

8. KNN 演算法測試

勾選「show background」, 紅圈較大的點是當前 AlphAI 的位置 , 它會找出最近的「鄰居」向它牽手來

決定接下來的行動 (綠色 | 左轉)

Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.