کسب‌وکارها، کاربران، کارشناسان از فناوری بزرگ در برابر شکایت‌های الگوریتمی دفاع می‌کنند

روز پنجشنبه، گروهی متنوع از افراد و سازمان‌ها از سپر مسئولیت Big Tech در یک پرونده حیاتی دادگاه عالی در رابطه با الگوریتم‌های YouTube دفاع کردند. این گروه شامل مشاغل، کاربران اینترنت، دانشگاهیان و کارشناسان حقوق بشر بود و برخی معتقد بودند که حذف حمایت های قانونی فدرال برای موتورهای توصیه مبتنی بر هوش مصنوعی تأثیر زیادی بر اینترنت باز خواهد داشت.

چرا ما اهمیت می دهیم. نتیجه این پرونده می‌تواند پیامدهای مهمی بر نحوه عملکرد شرکت‌های فناوری داشته باشد. اگر دادگاه حکم کند که شرکت‌ها می‌توانند در قبال محتوایی که الگوریتم‌هایشان توصیه می‌کنند مسئول شناخته شوند، می‌تواند نحوه طراحی و اجرای سیستم‌های توصیه‌شان را تغییر دهد.

این می تواند منجر به مدیریت دقیق تر محتوا و کاهش مقدار محتوایی که به کاربران توصیه می شود، شود. علاوه بر این، می تواند منجر به افزایش هزینه های قانونی و عدم اطمینان برای این شرکت ها شود.


نیکول فارلی ویرایشگر زمین موتور جستجو است که همه چیزهای PPC را پوشش می دهد. او علاوه بر کهنه سرباز تفنگداران دریایی، پیشینه گسترده ای در بازاریابی دیجیتال، MBA و تمایل به جنایات واقعی، پادکست ها، سفر و تنقلات دارد.


منبع: https://searchengineland.com/businesses-users-and-experts-defend-big-tech-against-algorithm-lawsuits-391976

دخالت متا متا، مادر فیس‌بوک، در ارسال قانونی خود اعلام کرده است که اگر دیوان عالی تفسیر بخش 230 را برای محافظت از توانایی پلتفرم‌ها برای حذف محتوا و نه توصیه محتوا تغییر دهد، سؤالات مهمی در مورد معنای توصیه چیزی آنلاین ایجاد می‌کند.

«کل پلتفرم Reddit حول محور کاربرانی ساخته شده است که با انجام اقداماتی مانند رأی مثبت و پین کردن محتوا، محتوا را به نفع دیگران «توصیه» می کنند. در این مورد نباید عواقب ادعای دادخواهان اشتباه شود: نظریه آنها به طور چشمگیری پتانسیل کاربران اینترنت را برای شکایت به دلیل تعاملات آنلاین آنها افزایش می دهد.

درباره نویسنده

نیکول فارلی

مدافعان حقوق بشر مداخله می کنند. مرکز استرن برای تجارت و حقوق بشر دانشگاه نیویورک بیان کرده است که ایجاد قانونی که به طور خاص توصیه های الگوریتمی برای مسئولیت را هدف قرار دهد بسیار دشوار است و ممکن است منجر به سرکوب یا از دست دادن مقدار قابل توجهی از گفتار ارزشمند، به ویژه گفتار شود. از گروه های به حاشیه رانده شده یا اقلیت.

«اگر Yelp نتواند بررسی‌ها را بدون مسئولیت‌پذیری تحلیل و توصیه کند، هزینه‌های ارسال بررسی‌های جعلی از بین می‌رود. اگر Yelp مجبور بود هر بررسی ارسالی را نمایش دهد، صاحبان مشاغل می توانستند صدها نظر مثبت را برای کسب و کار خود با کمی تلاش یا خطر جریمه ارسال کنند.

جدید در زمین موتورهای جستجو

«اگر صرفاً نمایش محتوای شخص ثالث در فید کاربر واجد شرایط «توصیه کردن» باشد، بسیاری از سرویس‌ها تقریباً در قبال تمام محتوای شخص ثالثی که میزبانی می‌کنند با مسئولیت بالقوه مواجه خواهند شد، زیرا تقریباً تمام تصمیم‌گیری‌ها درباره نحوه مرتب‌سازی، انتخاب، سازمان‌دهی، و نمایش محتوای شخص ثالث را می توان به عنوان «توصیه» آن محتوا تفسیر کرد.»

گوگل ادعا کرده است که بخش 230 قانون نجابت ارتباطات از آنها در برابر چنین دعوی قضایی محافظت می کند. با این حال، شاکیان این پرونده، اعضای خانواده قربانی کشته شده در حمله داعش در پاریس در سال 2015، استدلال می کنند که الگوریتم توصیه یوتیوب می تواند تحت قانون ضد تروریسم ایالات متحده مسئول شناخته شود.

چی شد. این مناقشه با پرونده دادگاه عالی Gonzalez v. Google شروع شد و حول این سوال متمرکز شد که آیا Google می‌تواند مسئول توصیه محتوای طرفدار داعش به کاربران از طریق الگوریتم YouTube خود باشد.

Yelp نوشت؛

نمایندگان متا اعلام کردند:

Yelp وارد می شود. Yelp، یک شرکت با سابقه درگیری با گوگل، استدلال کرده است که مدل کسب و کار آن بر ارائه بررسی های دقیق و غیر متقلبانه برای کاربران خود متکی است. آنها همچنین بیان کرده‌اند که حکمی که الگوریتم‌های توصیه را مسئول می‌داند، می‌تواند به شدت بر عملیات Yelp تأثیر بگذارد و آنها را مجبور به توقف مرتب‌سازی از طریق بررسی‌ها، از جمله موارد جعلی یا دستکاری‌کننده کند.

در پرونده آمده بود:

در میان کسانی که به دادگاه رسیدگی کردند، شرکت‌های فناوری بزرگ مانند متا، توییتر و مایکروسافت و همچنین برخی از سرسخت‌ترین منتقدان Big Tech از جمله Yelp و Electronic Frontier Foundation بودند. علاوه بر این، Reddit و گروهی از مدیران داوطلب Reddit نیز در این پرونده شرکت کردند.