نرم افزاری برای محاسبۀ نمرۀ اعتمادپذیری | cisanews |سیسا نیوز |cisanews |سیسا نیوز

تاریخ خبر: // کد خبر: 27088 // //

نرم افزاری برای محاسبۀ نمرۀ اعتمادپذیری

شعار سال: ریچل باتسمن،  گاردین — اولین درسی که دربارۀ خطراتِ اعتماد به غریبه‌ها آموختم به سال ۱۹۸۳ برمی‌گردد، تازه پنج‌سالم شده بود که زنِ ناشناسی وارد خانه‌مان شد. دوریس، زنی اهلِ گلاسگو و درآستانۀ سی‌سالگی که به‌تازگی پرستارِ ما شده بود. مامانم او را از مجلۀ باکلاسی به نامِ دِ لیدی پیدا کرده [...]
نرم افزاری برای محاسبۀ نمرۀ اعتمادپذیری

شعار سال: ریچل باتسمن،  گاردین — اولین درسی که دربارۀ خطراتِ اعتماد به غریبه‌ها آموختم به سال ۱۹۸۳ برمی‌گردد، تازه پنج‌سالم شده بود که زنِ ناشناسی وارد خانه‌مان شد. دوریس، زنی اهلِ گلاسگو و درآستانۀ سی‌سالگی که به‌تازگی پرستارِ ما شده بود. مامانم او را از مجلۀ باکلاسی به نامِ دِ لیدی پیدا کرده بود.

دوریس درحالی که کلاه مخصوص و یونیفرمِ یک انجمن خیریۀ مذهبی موسوم به سپاهِ رستگاری را به تن داشت از راه رسید. مادرم می‌گوید: «لهجۀ زمخت اسکاتلندی‌اش خاطرم هست. به من گفت که قبلاً تجربۀ کار با بچه‌هایی در این سن‌وسال را داشته و، چون از کمک به مردم لذت می‌بَرَد عضوِ سپاهِ رستگاری شده. صادقانه بگویم، از همان نگاهِ اول به دلم نشست».

دوریس ۱۰ ماه با ما زندگی کرد. درکُل پرستار خوبی بود؛ خوش‌رُو، قابلِ‌اعتماد و دست‌به‌کمک. هیچ چیزِ غیرعادی‌ای در او وجود نداشت، البته به‌جز غیبت‌های بی‌دلیلش در بعضی از آخرِ هفته‌ها.

همان موقع‌ها، همسایه‌مان، خانوادۀ لوکزامبورگ، زنِ خدمتکاری داشتند که دوریس زمانِ زیادی را با او می‌گذراند. یک روز بعدازظهر، آقای لوکزامبورگ به خانۀ ما آمد و گفت که متوجه شده که خدمتکارشان با یک شبکۀ فروش مواد مخدر در ارتباط است. «آن‌ها حتی در یک سرقت مسلحانه هم دست داشته‌اند». پدرم بعد‌ها فهمید که «دوریس هم رانندۀ فرارشان بوده». بعدتر کاشف به عمل آمد که برای ماشینِ فرار هم از وُلوو-استیشنِ خانوادگیِ ما استفاده کرده بودند.

والدینم تصمیم گرفتند اتاقِ دوریس را بگردند. یک جعبۀکفش زیرِ تختش پیدا کردند که پُر بود از دسته‌های ارزِ خارجی که از دفترکارِ خانگیِ والدینم دزدیده بود. پدرم تمامِ شب درحالی که کمی هم ترسیده بود، با یک چوب بیس‌بال پشتِ در کشیک می‌داد تا دوریس برگردد. شکر خدا هیچ‌وقت پیشِ ما برنگشت.

مادرم می‌گوید: «حتی یادآوریِ این ماجرا هم حالم را بد می‌کند. من شما را سپرده بودم به یک مجرمِ خطرناک و خیلی طول کشید تا بفهمیم که او واقعاً کیست». اگر به گذشته برمی‌گشتید چه‌کار می‌کردید؟ «ای کاش بیشتر دربارۀ او تحقیق می‌کردم».

والدینِ من درکل آدم‌های منطقی و باهوشی بودند. آیا اگر امروز بود، باز هم آن‌ها در این دنیای به‌هم‌متصلِ دیجیتالی، آن اشتباه را مرتکب می‌شدند؟ احتمالاً نه. دستۀ جدید و روبه‌رشدی از شرکت‌های فناورانه هستند که قرار است به ما کمک کنند تا تصمیم بگیریم به چه‌کسی می‌توان اعتماد کرد و به چه‌کسی نمی‌توان: یک پرستارِ بچه را استخدام کنیم یا نه، خانه‌مان را به فردی اجاره بدهیم یا نه، یا سوارِ یک تاکسی بشویم یا نه. فناوریْ امروزه بیش از هر زمان دیگری می‌تواند تشخیص دهد که ما چگونه کسانی هستیم. آیا الگوریتمی هست که بتواند بهتر از ما تشخیص دهد که چه کسی آدم‌حسابی و چه کسی غیرقابلِ اعتماد است؟

                                                                                         •••

در یک صبح سرد پاییزی، سری زدم به دفترکارِ سادۀ شرکت ترولی۱ در لوس‌آلتوس، شهری بی‌حال و دورافتاده در شمالِ سیلیکون‌ولی. ساوی باوِجا، مدیرعاملِ ترولی، درحالی که سعی داشت به من نشان دهد که این اعتمادسنج۲‌های جدید تاچه‌حد توانمند هستند، با لبخندِ ترغیب‌کننده‌ای گفت: «نظرت چیست که یک‌بار نرم‌افزارِ ترولی را روی خودِ تو اجرا کنیم تا ببینیم چه نشانمان می‌دهد؟».

همین‌طور که سرخ شده بودم، تمام کار‌های زشت یا شرم‌آوری که تا‌به‌حال مرتکب شده بودم را با خودم مرور کردم. جریمه‌های متعددِ توقف ممنوع و سرعتِ غیرمجاز؟ وب‌سایت‌های ناجوری که در آن وقت گذرانده بودم (البته منظورم برای اهدافِ پژوهشی است)؟ یا عکس‌های قدیمی؟

خندۀ عصبی‌ام را که دید گفت: «نگران نباش. اگر بخواهی می‌توانیم برنامه را روی آن نمایشگرِ بزرگ بیاندازیم تا مراحلِ کار را به‌طور هم‌زمان ببینی». پیشنهادش خیلی هم اعتمادجلب‌کن نبود.

آنیش داس سارما، معاون فنی ترولی و پژوهشگر ارشد سابق گوگل، نام و نام‌خانوادگی و سپس ایمیلِ من را در نرم‌افزاری به نام «اینستَنت تراست» وارد کرد؛ و تمام. نه تاریخ تولد، نه شماره موبایل، نه شغل و نه نشانی.

باوِجا برایم توضیح داد: «الآن نرم‌افزارِ یادگیریِ ماشینی، داده‌کاوی را برروی سه منبعِ مختلف از داده‌های عمومی و مجوزدار انجام خواهد داد. در ابتدا، رکورد‌های عمومی مثلِ گواهی‌های تولد و ازدواج، فهرست افراد تحت تعقیب برای پول‌شویی و فهرست متجاوزان جنسی بررسی می‌شوند. ما به تمام اطلاعات ثبت‌شدۀ سراسری که دسترسیِ عمومی داشته و دیجیتالی شده باشند دسترسی داریم». بعد از آن نوبت به یک خزندۀ۳ فوقِ متمرکز می‌رسد که جستجو در وبِ پنهان۴ را برعهده دارد: «وبِ پنهان هم بخشی از اینترنت است، اما مخفی است و صفحاتِ آن به‌وسیلۀ موتور‌های جستجوی عادیْ نمایه‌گذاری نمی‌شود». پس چه‌کسی از آن استفاده می‌کند؟ «انجمن‌های نفرت‌پراکنی، پِدوفیل‌ها و قاچاقچیانِ اسلحه. آن بخش از اینترنت، محل زندگیِ آدم‌های ناجور است۵».

آخرین منبع هم رسانه‌های اجتماعی مثلِ فیسبوک و اینستاگرام‌اند. به رکورد‌های رسمیِ پزشکی هم دسترسی نداریم. بااین‌حال، اگر در توییتر بنویسید «عملِ سختی روی کمرم انجام دادم»، این مورد هم از لحاظِ قانونی دادۀ مجاز تلقی شده و ما از آن استفاده می‌کنیم. باوِجا و تیمش ۹ ماه را صرفِ سبک‌سنگین‌کردنِ داده‌های مختلف کردند تا تصمیم بگیرند کدامشان را باید و کدامشان را نباید به کار بگیرند. داده‌های مربوط به افرادِ زیر سنِ قانونی هم کنار گذاشته می‌شود. او می‌گوید: «در بعضی از کشور‌ها تفاوت میان اطلاعات ’خصوصی‘ و اطلاعاتِ ’خصوصیِ حساس‘ در قانون مشخص شده است. این دومی مواردی، چون اطلاعاتِ پزشکی، نژادی، مذهبی، عضویت در اتحادیه‌ها و مواردی از این دست را شامل می‌شود. ما به‌طور جدی حواسمان به این اطلاعاتِ حساسیت‌برانگیز هست و آن را خطِ قرمز خود می‌دانیم».

خبر جدید  داستان ارتباط پروفسور "رضا" با شهید مطهری

بعد از حدود سی ثانیه، نامۀ اعمالِ من آماده شد. «اینجا را ببین، تو یک شدی!» پرونده‌ها را از یک تا پنج رتبه‌دهی می‌کنند که یک به‌معنیِ قابلِ‌اعتمادترین است. «فقط حدود ۱۵ درصد از مردمْ یک می‌شوند. این‌ها ’فوقِ خوب‌ها‘ هستند».

نفسِ راحتی کشیدم و تاحدی هم به خودم افتخار کردم. چه تعداد «فوقِ بد» داریم؟ «در کشور‌هایی که تحتِ پوششِ ما هستند، ازجمله آمریکا و انگلیس، حدود یک تا دو درصد از مردم رتبه‌ای بینِ چهار و پنج می‌گیرند».

باوِجا پیش‌ازاین یکی از شرکای شرکتِ مشاورۀ «بایْن اند کامپِنی» بود. یکی از کِش‌دارترین پرونده‌هایش مربوط به یک «بازارگاهِ۶ اینترنتی معروف» بود. آنجا بود که برای اولین‌بار توجهش به اهمیتِ اعتماد در دنیای دیجیتال جلب شد. او می‌گوید: «آن‌ها مجبور بودند شش درصد از کلِ بودجه‌شان -معادل صد‌ها میلیون دلار- را برای رفع‌ورجوع کردنِ مشکلات رخ‌داده در بازارگاه خرج کنند. آنجا بود که فهمیدم سیستمِ امتیازدهیِ ستاره‌ای در محیط‌های آنلاین تاچه‌حد در جلوگیری از مشکلاتِ پرتعدادِ این‌چنینی ناکارآمد است».

در همان دوره، همسرِ باوِجا یک مطبِ دندان‌پزشکیِ جمع‌وجور راه انداخته بود. مردم از پول‌دادن امتناع می‌کردند یا تهدید می‌کردند که در اینترنت نظرِ منفی می‌گذارند. آخرِ هفته‌ها هم عده‌ای زنگ می‌زدند و مسکن‌های اعتیادآور می‌خواستند. او می‌گوید: «چیزی که تجربه کردم این بود که کسب‌وکار‌های کوچک، در مقایسه با کسب‌وکار‌های بزرگ، خیلی کمتر نسبت به مشتریانشان شناخت دارند. جالب نبود اگر این کسب‌وکار‌ها به طریقی می‌توانستند مشتریانِ بالقوه بدِ خود را کنار بگذارند؟».

ترولی، برای محاسبۀ نمرۀ اعتمادپذیریِ من، در کمتر از سی ثانیه بیش از سه میلیارد صفحه را از حدود ۸ هزار وب‌سایت زیرورو کرد. داده‌ها در سه دسته گردآوری شدند. دستۀ اول که پایه‌ای‌ترین دسته است، هویتِ من را بررسی کرد. آیا من همانی هستم که ادعا می‌کنم؟ کار جالبی که برای این منظور انجام می‌دهند این است که مندرجاتِ وب‌سایت شخصی‌ام را با پروندۀ دانشگاهی‌ام مقایسه می‌کنند. دستۀ دوم داده‌هایی است که فعالیت‌های غیرقانونی، پرخطر یا کلاه‌برداری‌ها را غربال می‌کند. اما سومین دسته از همه جالب‌تر است. داده‌هایی که «سه‌گانۀ سیاه» را در من اندازه‌گیری می‌کنند، سه صفتِ شخصیتیِ سنگ‌دلانه که در افرادِ کلاه‌بردار دیده می‌شود: خودشیفتگی (خودخواهی به‌همراه ولع زیاد برای جلبِ‌توجه)، شخصیتِ ضداجتماعی (فقدانِ حسِ همدردی و عذابِ وجدان) و ماکیاولیسم (زورگوییِ همراه با بی‌اخلاقی). متأسفانه باوِجا امتیازِ تفکیک شده‌ام را به من نداد، به هرحال همین‌که سربلند بیرون آمدم جای شکرش باقی است.

نرم‌افزارِ ترولی، دو سال پیش، به‌عنوانِ «تعیین‌کنندۀ قابلِ‌اعتماد بودن و سازگاری‌پذیریِ اشخاص» در آمریکا ثبت اختراع شد. الگوریتم این برنامه طوری طراحی شده است که صفاتِ شخصیتیِ پنج‌گانه موسوم به «پنجِ بزرگ» ۷ را هم اندازه‌گیری می‌کند -باز بودن [دربرابرِ تجربه‌های جدید]، وظیفه‌شناسی، برون‌گرایی، دلپذیر بودن و روان‌رنجوری- این ارزیابی به‌عنوانِ یکی از روش‌های کلیدیِ شخصیت‌سنجی در دهۀ هشتاد به‌طور گسترده مورد توافق پژوهشگران قرار داشت. به گفتۀ باوِجا: «ترولی، مدل‌های پیچیده‌ای را برای پیش‌بینیِ این صفات توسعه داده است. مدل‌هایی که از صد‌ها ویژگیِ موجود در ردپای آنلاین افراد استفاده می‌کنند. برایمان جالب بود که با استفاده از ردپای آنلاینِ یک فرد می‌توان رفتارِ عصبی یا گستاخانۀ او در آینده را پیش‌بینی کرد. کسی که در حسابِ توییترش آدمی خودبین و بددهن است احتمالِ بیشتری دارد که فردی ضداجتماع باشد».

یادم است وقتی ۱۸ سال داشتم یک‌بار با پدرم بحثم شد. یک پِژوی دستِ‌دومِ تروتمیز در سایت «ای‌بِی» پیدا کرده بودم، اما پدرم معتقد بود که، چون اسمِ مستعارِ فروشندهْ جادوگرِ نامرئی است، نمی‌تواند آدمِ قابلِ‌اعتمادی باشد. آخرِ سر هم به‌جای خرید از سایت مجبورم کرد که به نمایشگاهِ محل برویم.

این روزها، حتی پدرِ محافظه‌کارِ من هم یک‌جور‌هایی معتادِ «ای‌بِی» شده است. درکلِ جامعه هم ما هر روز بیشتر از قبل از فناوری برای تعاملاتِ شخصیِ صمیمانه‌تر استفاده می‌کنیم و خیلی وقت‌ها این تعاملات با افرادی کاملاً غریبه انجام می‌شود. خواه برای اجاره دادنِ خانه یا ماشینمان، خواه برای پیداکردنِ عشقِ جدید یا پرستارِ بچه از اینترنت. بااین‌حال وقتی برای اولین بار در اینترنت با یک‌نفر ارتباط برقرار می‌کنید، از کجا می‌فهمید که طرفْ خطرناک است یا نه؟ همان کسی هست که ادعا می‌کند یا نه؟ یا حتی اصلاً آن‌طرفِ قضیه یک آدمِ واقعی نشسته است؟

این‌ها سوالاتی است که جوابش را باید از شرکت‌هایی مثل «اربِن سیتر» بپرسیم. این وب‌سایتِ آمریکایی، خانواده‌ها را به پرستار‌های بچه مرتبط می‌کند و تاکنون در آن ۳۵۰ هزار پدر و مادر از خدماتِ ۳۰۰ هزار پرستارِ بچه بهره‌مند شده‌اند. مثل خیلی از خدماتِ آنلاین، مردم برای ورود به سیستم باید از حساب‌های فیسبوک یا لینکداینِ خود استفاده کنند. درنتیجه، طبق گفتۀ بنیان‌گذارِ ۴۳ساله‌اش لین پِرکینز: «در زمانِ استخدام‌کردن، می‌توانید ببینید چند نفر از ’دوستانتان‘ قبلاً این پرستارِ بچه را به خدمت گرفته، یا به طریقی با او در ارتباط بوده‌اند».

خبر جدید  پنج طرح بزرگ برای توسعه فناوری و محصولات دانش بنیان در سال جهش تولید

پرستار‌ها و والدین، هر دو پروفایل‌های کاملی برای خود ایجاد می‌کنند. مقدار و نوعِ جزئیاتی که کاربر‌ها به‌صورتِ داوطلبانه اظهار می‌کنند حیرت‌انگیز است. پرکینز به یاد می‌آورد که: «یکی از والدین توضیحات مفصلی راجع به خوک‌های خانگی‌شان ارائه کرده بود. آن‌ها می‌خواستند مطمئن شوند که پرستارِ بچه‌شان با خوک به‌عنوانِ حیوانِ خانگی مشکلی ندارد. این کار هرچند عجیب به‌نظر می‌رسد، اما سطحِ بالایی از مدیریت انتظارات به‌حساب می‌آید».

آخرین سطحِ خدمات امنیتی هم به‌وسیلۀ ترولی و رقبای دیگرش مثل چِکر ارائه می‌شود. اینکه آیا این پرستار واقعاً مدرکِ کودک‌داری از دانشگاه ساوث تِمز دارد؟ آیا معمولاً از الفاظِ نامناسب در اینترنت استفاده می‌کند؟ آیا قبلاً برای او سابقۀ سوءاستفادۀ جنسی ثبت شده است؟

تنها ۲۵ درصد از پرستارانی که فرایند ثبت‌نام را آغاز می‌کنند، اسمشان روی سایت می‌رود. ۷۵ درصدِ بقیه یا درخواستشان رد می‌شود، یا خودشان منصرف می‌شوند چراکه نمی‌خواهند یا نمی‌توانند از هفت‌خوانِ ثبت‌نام عبور کنند.

حتی در چنین فضا‌های جسورانه‌ای هم مواردی از خطا وجود داشته و خواهد داشت، بااین‌حال تقریباً محال است که بتوانید تعدادِ دقیقِ رخداد‌های ریزودرشت ناگواری که در این پلتفرم‌ها اتفاق می‌افتد را از زیر زبان کارآفرینانی مثل پِرکینز بیرون بکشید. او همواره خواهد گفت: «اتفاقات ناگوار وجود دارد، اما بسیار نادر است».

                                                                                         •••

در ماه ژوئن، شرکت اِیر بی‌اِن‌بی (اجاره‌دهندۀ مکان‌های تفریحی و اقامتی)، شرکت ترولی را به قیمت نامعلومی خرید. این کار بخشی از سرمایه‌گذاریِ آن‌ها در حوزۀ رفعِ ایراد بود. آن‌ها افرادی، چون نیک شاپیرو، نایب‌رئیسِ سابقِ ستاد در سازمان سی‌آی‌اِی را به خدمت گرفتند. شاپیرو در سال ۲۰۱۵ کارش را در ایر بی‌اِن‌بی به‌عنوانِ مدیر واحد مدیریتِ ریسک و اعتماد آغاز کرد. او می‌گوید: «به‌دست‌آوردن اعتماد و حفظ‌کردنِ آن همیشه جزء مهمی از هر جامعۀ وظیفه‌محور بوده است. چیزی که تغییر کرده است مکان و روشِ ردوبدل شدنِ این اعتماد است. مردم به‌جای اینکه سازمان‌ها و کسب‌وکار‌های بزرگ یا رسانه‌ها و نهاد‌های دولتی را نمادِ اعتماد بدانند، بیش‌ازپیش به یکدیگر اعتماد می‌کنند».

بخشی از شرحِ وظایفِ او این است که بفهمد وقتی کار‌ها از روالِ عادی خارج می‌شود، ایر بی‌اِن‌بی چگونه باید به شرایط واکنش نشان دهد. شرایطی مثلِ موردِ دیوید کارتر، کسی که در مارس ۲۰۱۴ آپارتمان لوکسی در نیویورک را برای یک آخر هفته اجاره کرد. او به صاحب‌خانه، آری تِمان، گفته بود که برادرش به همراه همسرِ خود به یک عروسی دعوت شده‌اند و او دنبالِ جایی است که آن‌ها بتوانند مدتی که در این شهر هستند را در آنجا اقامت کنند. بعداً کاشف به عمل آمد که «همسرهای» برادرش درواقع مهمان‌های یک مهمانیِ مختلطِ آن‌چنانی با حضورِ «زنانِ چاقِ زیبا» و حیواناتِ عروسکی بوده‌اند. تِمان برای برداشتنِ چمدانی که جا گذاشته بود به خانه برگشت و تازه متوجه شد که خانه‌اش را کرده‌اند محل برگزاری یک مهمانیِ مناسب برای ردۀ سنیِ ایکس.

کارتر در سایت ایر بی‌اِن‌بی یک حسابِ‌کاربری تأییدشده داشت و تعدادی نظرات مثبت هم برایش ثبت شده بود. شاپیرو معتقد است: «ما وظیفه داریم به عقب برگردیم و ببینیم آیا می‌توانستیم کار‌ها را جور دیگری انجام دهیم، آیا قصوری از ما سر زده است؟» به‌عبارت دیگر، باید ببینید چطور می‌توانیم امثالِ کارتر‌ها را از بازی حذف کنیم.

باوِجا می‌گوید: «به‌راحتی می‌توانستید آنچه قرار است اتفاق بیافتد را پیش‌بینی کنید. نیازی نبود به عمقِ روانِ او نفوذ کنید تا متوجه شوید این مردک کارش ترتیب‌دادن مهمانی‌های غیراخلاقی است». جستجوی سادۀ ایمیلِ کارتر در گوگل ما را به تبلیغات آنلاین رویداد‌هایی از این دست می‌رساند: دورهمیِ شمارۀ دو شامل مراسم ربودنِ زیرشلواری و مهمانی زنان چاق زیبا. حتی یک نفر هم در توییتی برای یک «جشنِ خفنِ ایکس‌ایکس‌ایکس» نشانی آن خانه را داده بود.

باوِجا می‌گوید: «با دیدن پروفایل کاربری او سَرنام‌های جدیدی یادگرفتم که حتی از فکرکردن دربارۀ آن‌ها هم خجالت می‌کشم».

داستانِ دوریس را برای باوِجا تعریف کردم. آیا اگر دوریس در اربِن‌سیتِر درخواست داده بود، می‌توانستیم با جستجو مچش را بگیریم؟ قاعدتاً بله. آن موقع والدینم می‌فهمیدند که او عضو سپاه رستگاری نیست، تجربه‌ای در مراقبت از کودکان ندارد و سوابق مجرمانۀ پراکنده‌ای هم در پرونده‌اش ثبت شده است. بااین‌حساب، دوریس هرگز حدِ نصاب لازم را کسب نمی‌کرد.
آیا ما باید از این الگوریتم‌های جدید استقبال کنیم؟ باوِجا و شاپیرو مسئولتشان را درقبالِ تصمیم‌گیری‌های اخلاقی پذیرفته‌اند و آن‌ها را به کُدهای کامپیوتری تبدیل کرده‌اند. حاضریم چه میزان از داده‌های شخصیمان برای این منظور زیرورو شود؟ و چه‌قدر می‌توانیم با اینکه یک الگوریتم اجازه داشته باشد دربارۀ قابلِ‌اعتماد بودنِ آدم‌ها قضاوت کند کنار بیاییم؟

خبر جدید  انحصار ساخت و پرتاب ماهواره توسط متخصصان ایرانی شکسته شد

وقتی در آزمونِ ترولی شرکت کردم مدام نگران بودم که نکند «خطاها»‌ی کوچکی که در گذشته‌های دور مرتکب شده بودم امروز علیه‌ام استفاده شود. آیا شرکت‌ها خطا‌های این‌چنینی را هم جایی ثبت کرده‌اند؟

شاپیرو تأکید می‌کند که: «هیچکس دوست ندارد قضاوت شود، چه به‌وسیلۀ یک انسان چه به‌وسیلۀ یک روبات، اما غربالگریِ ما ربطی به این مسائل ندارد. ما دنبالِ خطر‌های مهم هستیم. چیز‌هایی مثل عضویت در گروه‌های نفرت‌پراکن، سابقۀ جرایم خشن یا جعلِ هویت. اینکه قبلاً یک توییت احمقانه نوشته‌اید یا برای توقف ممنوع جریمه شده‌اید، به ما ارتباطی ندارد».

بااین‌حال، همین چیز‌های کوچک ممکن است روی یک کارفرما تأثیر بگذارد. استخدام‌کننده‌ها به‌طور روزافزون از ردپا‌های دیجیتال و یادگیریِ ماشینی برای غربال‌کردن متقاضیان استفاده می‌کنند. ابزار‌های استخدامی از قبیل بیلانگ، تال‌ویوو و دِ سوشال ایندکس، محصولاتی را ارائه کرده‌اند که داده‌های آنلاین را گردآوری و تحلیل می‌کند و مشخص می‌کند که آیا یک متقاضی با فرهنگِ شرکتی که می‌خواهد در آن استخدام شود «انطباق» دارد یا نه.

سؤال‌های دیگری هم مطرح است. برای مثال خروجی الگوریتم‌ها دربارۀ «ارواحِ دیجیتال» چه خواهد بود؟ افرادی مثل شوهرِ من که هیچگاه گذرشان به توییتر و فیسبوک و لینکداین نیفتاده است. آیا «قُطر کم پرونده»، بررسی قابل‌اعتماد بودنشان را با مشکل مواجه می‌کند؟

باوِجا تأیید می‌کند که «برای ۱۰ تا ۱۵درصد از مردم نمی‌توانیم نمرۀ اعتماد صادر کنیم. به‌این‌علت که یا ردپای دیجیتالشان ناچیز است یا اینکه ورودیِ دقیق برایشان کم داریم».

شاپیرو می‌گوید: «در سایت‌هایی مثل ایر بی‌اِن‌بی، گمنام بودم لزوماً به ضررتان تمام نمی‌شود. ما دنبالِ اطلاعاتِ منفی دربارۀ افراد می‌گردیم و فقدانِ چنین اطلاعاتی به نفع شماست».

در دنیایی که با چند ضربه روی صفحۀ گوشی می‌توانیم یک قرارِ عاشقانه بگذاریم، یا اینترنتی می‌توانیم کسی را پیدا کنیم که نشتیِ لوله‌ها را تعمیر کند یا ما را به خانه برساند، اعتمادِ آنلاین سریع‌تر، هوشمندتر و فراگیرتر شده است. بار اولی که اطلاعات کارت بانکی‌مان را در یک وب‌سایت وارد کردیم یا کسی را در سایتِ دوست‌یابیِ تیندر یافتیم، به‌نظرمان کمی عجیب، یا حتی ترسناک می‌آمد، اما این کار‌ها خیلی زود عادی شدند. آیا فناوری قادر است تمامِ خطراتِ تعامل با غریبه‌ها را ازبین ببرد؟

پرکینز از اربِن سیتِر در جواب می‌گوید: «به‌هیچ وجه». انسان‌ها ازنظر اخلاقی موجوداتِ پیچیده‌ای هستند و اینکه خودمان را کلاً از قضیه‌کنار بگذاریم به‌نظر احمقانه می‌آید. «اگر یک پرستارِ بچه را در سایت دیدید و حسِ عجیبی نسبت به او داشتید، مهم نیست که او در آزمون‌ها قبول شده است، مهم نیست که چه‌قدر نظراتِ مثبت درباره‌اش نوشته‌اند یا چه چیز‌های خوبی در اینترنت از او خوانده‌اید، به ندای قلبتان گوش بدهید و قرارتان را با او لغو کنید».

اگر هنوز تصمیم‌گیری دربارۀ اینکه به چه کسی می‌توان اعتماد کرد مسئله است، باید بدانیم که الآن در جایگاه بهتری برای پرسیدنِ سؤال‌های درست و یافتن اطلاعات درست هستیم. به‌عبارتِ دیگر احتمالش خیلی کمتر است که یک موادفروش با سابقۀ سرقت از بانک را به‌جای پرستارِ بچه استخدام کنیم.

پی‌نوشت‌ها:
• این مطلب را ریچل باتسمن نوشته است و در تاریخ ۷ اکتبر ۲۰۱۷ با عنوان «Who do you trust? How data is helping us decide» در وب‌سایت گاردین منتشر شده است. وب‌سایت ترجمان آن را در تاریخ ۱۲ مرداد ۱۳۹۹ با عنوان «آیا فناوری از «آدم‌شناسی» غریزی ما پیشی خواهد گرفت؟» و ترجمۀ بابک حافظی منتشر کرده است.
•• ریچل باتسمن (Rachel Botsman) یکی از پژوهشگران برجستۀ اعتماد در دنیای امروز است. باتسمن استاد دانشگاه آکسفورد است و دربارۀ تأثیر تکنولوژی‌های جدید بر ساختار اعتماد تحقیق می‌کند.  آنچه مال من است، برای توست (What’s Mine is Yours) و به چه کسی می‌توانی اعتماد کنی؟  (Who Can You Trust) کتاب‌های او هستند.

[۱]Trooly
[۲]Trust Check
[۳]خزنده (crawler) به‌عنوانِ بخش مهمی از هر موتورِ جستجو، یک روباتِ نرم‌افزاری است که با گشت زدن در اینترنت اطلاعات موجود در وب‌سایت‌های مختلف را برای نمایه‌سازی (indexing) در موتورِ جستجو گردآوری می‌کند [مترجم].
[۴]Deep Web
[۵]وبِ پنهان (Deep Web) شاملِ تمام صفحاتی از اینترنت است که به‌دلایلِ مختلف از دید موتور‌های جستجو پنهان شده است. وبِ تاریک (Dark Web) بخشی از وبِ پنهان است که در آن اقداماتِ غیرقانونی و هولناک انجام می‌شود [مترجم].
[۶]بازارگاه (marketplace) محیطی شبیه به یک فروشگاه آنلاین است با این تفاوت که به‌جای فروشِ مستقیمِ کالا یا خدمات، زیرساختی را برای حضور فروشنده‌ها و تامین‌کنندگانِ دیگر فراهم می‌کند. درواقع بازارگاه یک درگاهِ ارتباطی بین فروشنده‌های مختلف و مصرف‌کنندۀ نهایی فراهم می‌کند [مترجم].
[۷]صفاتِ شخصیتیِ پنجِ بزرگ (big five) یکی از مدل‌های رایج در روان‌شناسی برای سنجش شخصیت افراد است که بیشتر درمورد اشخاصِ بهنجار کاربرد دارد و برای اندازه‌گیریِ آن از یک آزمونِ معروف روان‌شناختیِ به نام NEO استفاده می‌شود [مترجم].

شعارسال، با اندکی تلخیص و اضافات برگرفته از سایت ترجمان، تاریخ انتشار: ۱۲ مرداد ۱۳۹۹، کدخبر: ۹۸۴۴، www.tarjomaan.com

آخرین اخبار انجمن های علمی

اخبار ویژه

آرشیو

پربازدید

بایگانی شمسی

آمار بازدید وبسایت

  • 0
  • 781
  • 102
  • 934
  • 139
  • 7,645
  • 27,317
  • 343,686
  • 614,144
  • 120,433
  • 23,555
  • 17,798
  • 1
  • مهر ۴, ۱۳۹۹