یک محقق گوگل می گوید که او به دلیل تعصب هایی که زیر مقاله مقاله AI است ، اخراج شده است


یک محقق محترم گوگل گفت که وی پس از انتقاد از روش خود برای استخدام اقلیت ها و سوگیری تعبیه شده در سیستم های هوش مصنوعی امروز ، از شرکت اخراج شد.

Timnit Gebru ، که به عنوان سرپرست تیم هوش مصنوعی اخلاقی گوگل همکاری می کرد ، در این باره گفت توییت کردن چهارشنبه شب که او به دلیل ایمیلی که روز قبل برای گروهی که شامل کارمندان شرکت بود ، اخراج شده بود.

وی در ایمیلی که توسط نیویورک تایمز بررسی شد ، از پاسخ گوگل به تلاش های او و سایر کارمندان برای افزایش اشتغال اقلیت و تمرکز بر تعصب هوش مصنوعی ابراز خشم کرد.

“زندگی شما شروع به بدتر شدن می کند وقتی که شروع به تبلیغ برای افراد کم نماینده می کنید. شما شروع به ناراحتی رهبران دیگر کرده اید. ” “هیچ راهی وجود ندارد که اسناد یا مکالمات بیشتر بتوانند به نتیجه برسند.”

جدایی وی از گوگل تأکید بر تنش روزافزون بین نیروی کار صریح گوگل و مدیریت ارشد نهادینه شده آن ، در حالی که نگرانی در مورد تلاش های این شرکت برای ساخت فناوری های منصفانه و قابل اعتماد را افزایش می دهد. این امر همچنین می تواند بر روی کارگران فناوری سیاه پوست و محققانی که در سال های اخیر دانشگاه را به دلیل مشاغل پردرآمد در دره سیلیکون ترک کرده اند ، تأثیر مهمی بگذارد.

موتال نکوند ، همکار آزمایشگاه جامعه مدنی دیجیتال استنفورد گفت: “راه اندازی آن تنها نشان می دهد دانشمندان ، فعالان و دانشمندانی که می خواهند در این زمینه کار کنند – و زنان سیاه پوستی هستند – در سیلیکون ولی استقبال نمی کنند.” “بسیار ناامید کننده است.”

سخنگوی گوگل از اظهار نظر در این باره خودداری کرد. در نامه ای به کارمندان گوگل ، جف دین ، ​​که ناظر بر کار گوگل در زمینه هوش مصنوعی ، از جمله دکتر دکتر گبرو و تیمش است ، عزیمت وی ​​را “یک زمان دشوار” خواند ، به ویژه با توجه به مباحث مهم تحقیقاتی درگیر ، و چقدر ما به عنوان یک سازمان و به عنوان یک شرکت تحقیقاتی حساس درمورد هوش مصنوعی اهمیت می دهیم. “

بعد از سالها هر محیطی که کارمندان در جلسات شرکت و تابلوهای اعلانات آنلاین مشغول بحث آزاد بودند ، گوگل شروع به بحث در محل کار خود کرد. بسیاری از کارمندان Google از محدودیت های جدید به لرزه می افتند و می گویند این شرکت از سنت شفافیت و بحث آزاد جدا شده است.

روز چهارشنبه ، شورای ملی کار گفت که گوگل هنگام اخراج دو کارمند درگیر در سازماندهی کار ، به احتمال زیاد قوانین کار را نقض کرده است. آژانس فدرال گفت گوگل قبل از اخراج کارمندان ، آنها را به طور غیرقانونی تحت نظر قرار می دهد.

مبارزات گوگل با کارمندان خود ، که در سال های اخیر در مورد رفتار این شرکت در برابر آزار و اذیت جنسی و کار با وزارت دفاع و آژانس های مرزی فدرال صحبت کرده اند ، از شهرت آن به عنوان یک مدینه فاضله برای تکنسین های با حقوق ، امتیازات و آزادی سخاوتمندانه در محل کار کاسته است. .

مانند دیگر شرکت های فناوری ، گوگل نیز مورد انتقاد قرار گرفته است زیرا در زمینه رفع کمبود زنان و اقلیت های نژادی در صفوف خود اقدامات کافی انجام نداده است.

مشکلات نابرابری نژادی ، به ویژه بدرفتاری با کارمندان سیاه پوست در شرکت های فناوری ، سال هاست که دره سیلیکون را آزار می دهد. Coinbase ، با ارزش ترین استارت آپ برای ارزهای رمزپایه ، طی دو سال گذشته اخراج کارمندان سیاهپوست را به دلیل آنچه کارگران گفته اند یک برخورد نژادپرستانه و تبعیض آمیز است ، تجربه کرده است.

محققان نگرانند افرادی که سیستم های هوش مصنوعی می سازند ممکن است خودشان به فناوری اعتیاد ایجاد کنند. در چند سال گذشته ، چندین آزمایش عمومی نشان داده است که سیستم ها غالباً با افراد رنگی تعامل متفاوتی دارند – شاید به این دلیل که در بین توسعه دهندگانی که این سیستم ها را ایجاد می کنند ، نمایندگی کمی دارند.

دکتر گبرو 37 ساله در اتیوپی متولد و بزرگ شده است. در سال 2018 ، وی در حالی که یک محقق در دانشگاه استنفورد بود ، به نوشتن مقاله ای کمک کرد که به عنوان نقطه عطفی در تلاش برای شناسایی و از بین بردن تعصب در هوش مصنوعی تلقی می شود. در اواخر همان سال ، او به Google پیوست و در ساخت تیم هوش مصنوعی اخلاقی کمک کرد.

پس از استخدام محققانی مانند دکتر گبرو ، گوگل به عنوان شرکتی اختصاص داده شده به هوش مصنوعی “اخلاقی” ظاهر شده است ، اما اغلب تمایلی به پذیرش علنی نقایص سیستم های خود ندارد.

دکتر گبرو در مصاحبه ای با تایمز گفت که تحریک او ناشی از نگرش این شرکت نسبت به مقاله تحقیقاتی است که وی با شش محقق دیگر نوشته بود ، چهار نفر از آنها در Google. این سند که توسط تایمز نیز مورد بررسی قرار گرفت ، نقایصی را در نسل جدید فن آوری زبان یافت ، از جمله سیستمی که توسط گوگل ساخته شده و موتور جستجوی این شرکت را پایه ریزی می کند.

این سیستم ها با تجزیه و تحلیل مقادیر زیادی از متن ، از جمله هزاران کتاب ، مدخل های ویکی پدیا ، و سایر اسناد آنلاین ، ناخوشایند های زبان را مطالعه می کنند. از آنجا که این متن شامل زبانی مغرضانه و گاه منفور است ، در نهایت فناوری می تواند زبانی مغرضانه و منفور ایجاد کند.

دکتر گبرو گفت ، پس از آنکه وی و سایر محققان مقاله را به یک کنفرانس دانشگاهی ارسال کردند ، یک مدیر گوگل از او خواست که مقاله را از کنفرانس خارج کند یا نام سایر کارمندان Google را حذف کند. او از این کار بدون بحث بیشتر خودداری کرد و در نامه ای که روز سه شنبه ارسال شد ، گفت اگر شركت نتواند توضیح دهد كه چرا می خواهد مقاله را پس بگیرد و سایر نگرانی ها را برطرف كند ، پس از مدت زمان مناسب استعفا می دهد.

وی گفت كه این شركت به ایمیل او پاسخ داده و گفته است كه نمی تواند به خواسته های او پاسخ دهد و استعفای وی بلافاصله پذیرفته شد. دسترسی وی به ایمیل شرکت و سایر خدمات بلافاصله لغو شد.

آقای دین در یادداشتی خطاب به کارمندان گفت که گوگل به “تصمیم خود برای استعفا” احترام می گذارد. آقای دین همچنین گفت که این مقاله تحقیقات اخیر را نشان نمی دهد که راه های کاهش تعصب در چنین سیستم هایی را نشان می دهد.

دکتر گبرو گفت: “این غیرانسانی بود.” “آنها ممکن است دلایلی برای توقف مطالعه ما داشته باشند. اما ناامیدکننده ترین چیز این است که آنها از بحث درمورد دلیل خودداری می کنند. “

جدایی دکتر گبرو از گوگل در حالی صورت می گیرد که فناوری هوش مصنوعی تقریباً در هر جنبه از تجارت Google نقش بیشتری دارد. این شرکت آینده خود را بر مبنای هوش مصنوعی – چه با دستیار دیجیتال با صدای فعال شده و چه با قرار دادن خودكار تبلیغات برای بازرگانان – به عنوان دستیابی به فناوری پیشرفته برای هوشمندتر و توانمندتر کردن نسل بعدی خدمات و دستگاه ها تعیین كرده است.

Sundar Pichai ، مدیرعامل Alphabet ، شرکت مادر گوگل ، ظهور هوش مصنوعی را با انرژی الکتریکی یا آتش سوزی مقایسه کرد و گفت که این امر برای آینده شرکت و رایانه های آن ضروری است. در اوایل سال جاری ، آقای پیچای خواستار تنظیم بیشتر و مدیریت مسئولیت پذیر هوش مصنوعی شد و اظهار داشت که جامعه باید آسیب های احتمالی و فرصت های جدید را متعادل کند.

گوگل بارها و بارها متعهد به حذف سوگیری در سیستم های خود شده است. دکتر گبرو گفت ، این مشکل این است که بیشتر افرادی که تصمیمات نهایی را می گیرند مرد هستند. وی گفت: “آنها نه تنها در اولویت بندی استخدام افراد بیشتر از جوامع اقلیت نیستند ، بلكه صدای آنها را نیز كاهش می دهند.”

جولین کورنبیز ، دانشیار دانشکده دانشگاه لندن و محقق سابق DeepMind ، یک آزمایشگاه برجسته هوش مصنوعی متعلق به همان شرکت مادر با گوگل ، در میان بسیاری از محققان هوش مصنوعی بود که گفت ترک دکتر گبرو منعکس کننده است بزرگترین مشکل در صنعت.

وی گفت: “این نشان می دهد که چگونه برخی از شرکت های بزرگ فناوری فقط از اخلاق و عدالت و سایر دلایل هوش مصنوعی برای منافع جامعه حمایت می کنند ، به شرطی که تأثیر روابط عمومی مثبت آنها بیش از کنترل اضافی باشد که آنها ایجاد می کنند.” “تیمنیت یک محقق درخشان است. ما در زمینه کاری خود به موارد مشابه دیگری نیاز داریم. “




منبع: aseman-kharash.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>