- صفحه اصلی
- رو،مه
- ChatGPT به دروغ پروفسور حقوق را به اتهام ، متهم می کند…
هوش مصنوعی و رباتیک
ChatGPT به دروغ پروفسور حقوقدان را به آزار و اذیت ، متهم می کند. آیا دعوای افترا ممکن است؟
نوشته دبرا کاسنس وایس
یک استاد حقوق از شنیدن این که در طی یک سفر ک،ی به آ،کا که توسط دانشکده حقوقش، مرکز حقوق دانشگاه جورج تاون، حمایت می شد، به آزار ، متهم شده بود، شگفت زده شد.
اما در واقعیت، جاناتان تورلی استاد دانشکده حقوق دانشگاه جورج واشنگتن است، او هرگز دانشجویان را به سفر ک،ی به آ،کا یا هر جای دیگری نبرده و هرگز به آزار و اذیت دانشجویی متهم نشده است. و مقاله فرضی واشنگتن پست که در مورد این اتهام گزارش می کند وجود ندارد.
به گفته شاکی تورلی ChatGPT است داستان او برای USA Today و مقاله ای در واشنگتن پست.
تورلی به واشنگتن پست گفت: «بسیار سرد کننده بود. “این نوع ادعاها فوق العاده مضر است.”
سخنگوی OpenAI خالق ChatGPT این بی،ه را به واشنگتن پست داد: «هنگامی که کاربران برای ChatGPT ثبت نام می کنند، ما تلاش می کنیم تا حد ممکن شفاف باشیم که ممکن است همیشه پاسخ های دقیقی ایجاد نکند. بهبود دقت واقعی یک تمرکز مهم برای ما است و ما در حال پیشرفت هستیم.»
ChatGPT پس از آن که یوجین ولوخ، استاد دانشگاه کالیفرنیا در دانشکده حقوق لس آنجلس، از آن خواست تا لیستی از اساتید حقوقی که شخصی را مورد آزار ، قرار داده اند، تهیه کند، تورلی را متهم کرده بود. او در پستهایی نوشت ولوخ در حال نوشتن یک مقاله مروری بر قانون است که به این موضوع میپردازد که آیا میتوان از سازندگان ChatGPT به دلیل افترا شکایت کرد. اینجا و اینجا برای توطئه ولوخ
واشنگتن پست احتمال دادخواهی را بررسی کرد. یک مسئله این است که آیا OpenAI می تواند طبق بخش 230 قانون نجابت ارتباطات، که ناشران آنلاین را در برابر کت و شلوارهای مبتنی بر محتوای شخص ثالث محافظت می کند، از مسئولیت اجتناب کند. موضوع دیگر این است که آیا شاکی می تواند از یک ادعای نادرست به اعتبار خود آسیب برساند یا خیر.
در یک مقاله برای وال استریت ژورنال، تد رال، کاریکاتوریست، پس از اینکه ChatGPT به دروغ ادعا کرد که توسط کاریکاتوریست دیگری که با او رابطه ای “مشاهده آمیز” و “پیچیده” داشته به سرقت ادبی متهم شده است، فکر کرد که آیا می تواند شکایت کند.
در واقع، رال گفت، کاریکاتوریست دیگر دوست او است، رابطه آنها نه بحث برانگیز است و نه پیچیده، و هیچ ، هرگز او را به سرقت ادبی متهم نکرده است. او در مورد احتمال کت و شلوار با کارشناسان صحبت کرد.
لارنس ترایب، استاد بازنشسته دانشکده حقوق هاروارد، به رال گفت که برای اه، مسئولیت مهم نیست که دروغ ها توسط یک انسان تولید شود یا یک چت بات.
رونل اندرسن جونز، استاد کالج حقوق دانشگاه یوتا، اس جی کوئینی، گفت: اما ادعای تهمت برای یک شخصیت عمومی که باید برای بازیابی بدخواهی واقعی نشان دهد، می تواند دشوار باشد.
جونز به رال گفت: «برخی از محققان پیشنهاد کردهاند که راه حل در اینجا بیشتر در مدل مسئولیت محصول است تا مدل افترا.
وقتی Volokh درخواست بازخورد در مورد موضوع افترا به صورت آنلاین کرد، بسیاری از مردم گفتند که اظهارات ChatGPT نباید به ،وان ادعاهای واقعی تلقی شود زیرا آنها محصول یک الگوریتم پیش بینی هستند.
او مینویسد: «من شباهتی به تابلوهای Ouija، Boggle، «کشیدن کاشیهای اسکربل از کیسه» و «ماشین تحریر (با یا بدون تعداد بینهایت میمون)» دیدهام.
ولوخ نوشت: “اما من فکر نمی کنم این درست باشد.” «در پروندههای افترا، آستانه «تحقیق کلیدی این است که آیا عبارت مورد اعتراض، هر قدر که توسط متهم بر،بگذاری شده باشد، به طور منطقی به نظر میرسد که ادعاهای واقعیت عینی را بیان میکند یا متضمن آن است». OpenAI ChatGPT را به،وان منبع قابل اعتمادی از ادعاهای واقعیت، نه فقط به ،وان منبع مز،فات سرگرمکننده، تبلیغ کرده است. مدل ،بوکار فعلی و آتی آن کاملاً بر اعتبار ChatGPT برای تولید خلاصههای دقیق منطقی از حقایق استوار است.
منبع: https://www.abajournal.com/news/article/chatgpt-falsely-accuses-a-law-prof-of-،ual-har،ment-is-a-libel-suit-possible/?utm_source=feeds&utm_medium=rss&utm_campaign=site_rss_feeds