所有參與者到齊,講者說明今日題目
本周由公共行政系吳瑛珠老師演講。本次著重的題目在於人工智慧是否帶有歧視?因為機器學習是使用訓練資料、訓練樣本,而訓練樣本的取得是否可能完全公正?是否因為某一族群的資料較為稀少,或者習慣性地總是蒐集某一族群的資料,而導致判決結果總是比較偏袒某一方,而忽略了某些族群的正義。另外,對於電腦來說,識別和歧視是兩件事,但對於人類來說,識別和歧視有時是同一件事,因為這出於生物天生的自我保護。如何將歧視和識別兩件事情分開來談,尤其從判決書中抽離,是有其困難性的,因此在道德上,這些都是人工智慧需要注意的事情。
主講者演講至第一章節之標題