2023年05月30日5 x; F+ e. }& w1 Q# N. C; y7 B
, ?% k& k# V& @4 R! X" H& ~os.tvboxnow.com
k/ L) F/ a; K& T. ~, _& ?
; ?- m" L6 X- @& D' C9 C公仔箱論壇ChatGPT 害執業30年的資深律師也中招!美國紐約一名律師使用AI聊天機器人ChatGPT搜集資料並作為案例呈交法官,結果被發現其援引的6宗案例以及文章內容都是虛構的。律師承認自己沒有核實信息並為此道歉,雖然沒有先例,不過該律師恐面臨停牌處分。事件引發了法律界對於人工智能工具在法律研究中適當使用的討論,以及做出相關措施來以防止類似情況發生。
. [7 Z, ~6 f& q) `公仔箱論壇
. S7 A& j0 x# y; G. Z+ N, gtvb now,tvbnow,bttvb
& \& A" R; v# u4 f. t* ~TVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。AP圖片os.tvboxnow.com8 b- s: k d$ T0 v; i; k
& d6 z$ B7 J! d( Z+ L據美國有線電視新聞網(CNN)28日報道,男乘客馬塔對哥倫比亞航空公司提起訴訟,稱自己2019年搭乘該公司航班飛往紐約市途中,空服人員疏忽導致他膝蓋被客艙內推車撞傷。0 p5 \6 g! t$ i6 I
7 c* B) M7 T) H* V( E {# {
馬塔的代理律師是已有30多年從業經歷的紐約市律師施瓦茨(Steven Schwarz)。為支持馬塔訴求,施瓦茨向法官凱文·卡斯特爾提交了多個所謂類似案例及其判決結果。
" u9 P4 {8 X- f, P/ Z& Ntvb now,tvbnow,bttvb
) z, T3 {$ h& s8 w( V$ xTVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。
/ v. M% W+ q9 I- V: a* Y* Y$ @示意圖
" ?2 x$ V" q. e$ f) H9 ]+ ~4 t$ l _7 c' f1 u
今年4月,哥倫比亞航空公司的律師致信法官,質疑施瓦茨所提交案例信息的真實性。據美國《紐約時報》報道,律師之一巴尼諾說,他的律師行的律師精通航空法律,看出那些信息不實。他說,他們當時隱約感覺那些信息來自ChatGPT。tvb now,tvbnow,bttvb+ K7 k9 p5 |* m9 K
0 W, H t$ K+ ~+ t2 Y) v$ s, U被ChatGPT騙了 律師後悔
- R8 @4 S$ G/ W1 n3 U5 H: Zos.tvboxnow.com施瓦茨本月25日在宣誓書中承認,曾依賴ChatGPT搜索資料,結果證明來源不可靠。他表示「非常後悔使用生成式AI來補充法律研究」,他強調自己無意欺騙法庭或航空公司,又稱以前從未這樣做過。他是第一次用ChatGPT協助辦案,「沒有意識到內容偽造的可能性」。os.tvboxnow.com5 u/ K5 _7 N- ]$ K! l; {
6 e) R: Z. R4 u9 _) {9 ]
( J# P! P( T# U! }1 {- f0 V b
AP圖片
6 }' N) ~8 E, S, k3 ?& h0 D5 e6 Y公仔箱論壇
4 `$ m. q3 { v5 O1 K! q公仔箱論壇據悉,施瓦茨詢問ChatGPT案例的真實性,ChatGPT再三確定這些案例為真實,且在「可信的法律數據庫」中可以查找到。0 ^" ]5 Y* g! T1 s, c
. F, e3 v1 t. O* u; ?施瓦茨在書面表示「深表懊悔」,願意承擔相關責任,承諾今後「沒有完全核實」就不會使用聊天機器人提供的信息。
2 [$ b2 J; b& D) p; p7 BTVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。
3 Z( G! A, F+ z) k; Y* A; V+ f: eTVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。法官卡斯特爾本月4日在一份書面文件中寫道,那6個案例的判決結果、引語等都是假的,該情況「史無前例」。他下令6月8日就處罰施瓦茨舉行聽証會。施瓦茨目前面臨何種懲罰尚未明確,最嚴重的情形可能是被停牌。 |