دسته‌ها
اخبار

ChatGPT به دروغ پروفسور حقوقدان را به آزار و اذیت جنسی متهم می کند. آیا دعوای افترا ممکن است؟



  1. صفحه اصلی
  2. رو،مه
  3. ChatGPT به دروغ پروفسور حقوق را به اتهام ، متهم می کند…

هوش مصنوعی و رباتیک

ChatGPT به دروغ پروفسور حقوقدان را به آزار و اذیت ، متهم می کند. آیا دعوای افترا ممکن است؟

نوشته دبرا کاسنس وایس

یک استاد حقوق از شنیدن این که در طی یک سفر ک،ی به آ،کا که توسط دانشکده حقوقش، مرکز حقوق دانشگاه جورج تاون، حمایت می شد، به آزار ، متهم شده بود، شگفت زده شد.

اما در واقعیت، جاناتان تورلی استاد دانشکده حقوق دانشگاه جورج واشنگتن است، او هرگز دانشجویان را به سفر ک،ی به آ،کا یا هر جای دیگری نبرده و هرگز به آزار و اذیت دانشجویی متهم نشده است. و مقاله فرضی واشنگتن پست که در مورد این اتهام گزارش می کند وجود ندارد.

به گفته شاکی تورلی ChatGPT است داستان او برای USA Today و مقاله ای در واشنگتن پست.

تورلی به واشنگتن پست گفت: «بسیار سرد کننده بود. “این نوع ادعاها فوق العاده مضر است.”

سخنگوی OpenAI خالق ChatGPT این بی،ه را به واشنگتن پست داد: «هنگامی که کاربران برای ChatGPT ثبت نام می کنند، ما تلاش می کنیم تا حد ممکن شفاف باشیم که ممکن است همیشه پاسخ های دقیقی ایجاد نکند. بهبود دقت واقعی یک تمرکز مهم برای ما است و ما در حال پیشرفت هستیم.»

ChatGPT پس از آن که یوجین ولوخ، استاد دانشگاه کالیفرنیا در دانشکده حقوق لس آنجلس، از آن خواست تا لیستی از اساتید حقوقی که شخصی را مورد آزار ، قرار داده اند، تهیه کند، تورلی را متهم کرده بود. او در پست‌هایی نوشت ولوخ در حال نوشتن یک مقاله مروری بر قانون است که به این موضوع می‌پردازد که آیا می‌توان از سازندگان ChatGPT به دلیل افترا شکایت کرد. اینجا و اینجا برای توطئه ولوخ

واشنگتن پست احتمال دادخواهی را بررسی کرد. یک مسئله این است که آیا OpenAI می تواند طبق بخش 230 قانون نجابت ارتباطات، که ناشران آنلاین را در برابر کت و شلوارهای مبتنی بر محتوای شخص ثالث محافظت می کند، از مسئولیت اجتناب کند. موضوع دیگر این است که آیا شاکی می تواند از یک ادعای نادرست به اعتبار خود آسیب برساند یا خیر.

در یک مقاله برای وال استریت ژورنال، تد رال، کاریکاتوریست، پس از اینکه ChatGPT به دروغ ادعا کرد که توسط کاریکاتوریست دیگری که با او رابطه ای “مشاهده آمیز” و “پیچیده” داشته به سرقت ادبی متهم شده است، فکر کرد که آیا می تواند شکایت کند.

در واقع، رال گفت، کاریکاتوریست دیگر دوست او است، رابطه آنها نه بحث برانگیز است و نه پیچیده، و هیچ ، هرگز او را به سرقت ادبی متهم نکرده است. او در مورد احتمال کت و شلوار با کارشناسان صحبت کرد.

لارنس ترایب، استاد بازنشسته دانشکده حقوق هاروارد، به رال گفت که برای اه، مسئولیت مهم نیست که دروغ ها توسط یک انسان تولید شود یا یک چت بات.

رونل اندرسن جونز، استاد کالج حقوق دانشگاه یوتا، اس جی کوئینی، گفت: اما ادعای تهمت برای یک شخصیت عمومی که باید برای بازیابی بدخواهی واقعی نشان دهد، می تواند دشوار باشد.

جونز به رال گفت: «برخی از محققان پیشنهاد کرده‌اند که راه حل در اینجا بیشتر در مدل مسئولیت محصول است تا مدل افترا.

وقتی Volokh درخواست بازخورد در مورد موضوع افترا به صورت آنلاین کرد، بسیاری از مردم گفتند که اظهارات ChatGPT نباید به ،وان ادعاهای واقعی تلقی شود زیرا آنها محصول یک الگوریتم پیش بینی هستند.

او می‌نویسد: «من شباهتی به تابلوهای Ouija، Boggle، «کشیدن کاشی‌های اسکربل از کیسه» و «ماشین تحریر (با یا بدون تعداد بی‌نهایت میمون)» دیده‌ام.

ولوخ نوشت: “اما من فکر نمی کنم این درست باشد.” «در پرونده‌های افترا، آستانه «تحقیق کلیدی این است که آیا عبارت مورد اعتراض، هر قدر که توسط متهم بر،ب‌گذاری شده باشد، به طور منطقی به نظر می‌رسد که ادعاهای واقعیت عینی را بیان می‌کند یا متضمن آن است». OpenAI ChatGPT را به‌،وان منبع قابل اعتمادی از ادعاهای واقعیت، نه فقط به ،وان منبع مز،فات سرگرم‌کننده، تبلیغ کرده است. مدل ،ب‌وکار فعلی و آتی آن کاملاً بر اعتبار ChatGPT برای تولید خلاصه‌های دقیق منطقی از حقایق استوار است.




منبع: https://www.abajournal.com/news/article/chatgpt-falsely-accuses-a-law-prof-of-،ual-har،ment-is-a-libel-suit-possible/?utm_source=feeds&utm_medium=rss&utm_campaign=site_rss_feeds