متا نمیگوید چه تعداد ناظر محتوا را استخدام کرده یا در Horizon Worlds قرارداد دارد یا اینکه آیا شرکت قصد دارد این تعداد را با سیاست عصر جدید افزایش دهد یا خیر. اما این تغییر بر افرادی که در این فضاهای آنلاین جدید وظیفه اجرای قانون دارند – افرادی مانند یککانتی – و نحوه انجام کارشان را مورد توجه قرار می دهد.
یککانتی از سال 2020 به عنوان مجری و مدیر آموزش واقعیت مجازی مشغول به کار بوده و پس از انجام کارهای تعدیل سنتی روی متن و تصاویر وارد این کار شده است. او توسط WebPurify استخدام شده است، شرکتی که خدمات تعدیل محتوا را به شرکت های اینترنتی مانند مایکروسافت و پلی لب ارائه می دهد و با تیمی مستقر در هند کار می کند. کار او بیشتر در پلتفرمهای رایج، از جمله پلتفرمهای متعلق به متا انجام میشود، اگرچه WebPurify از تأیید اینکه کدام یک به طور خاص به توافقنامههای محرمانگی مشتری اشاره میکند، خودداری کرد. کیت مک لافلین، سخنگوی متا می گوید که متا کوئست مستقیماً با WebPurify کار نمی کند.
یککانتی که از علاقه مندان قدیمی به اینترنت است، می گوید که دوست دارد یک هدست واقعیت مجازی قرار دهد، با مردم سراسر جهان ملاقات کند و به سازندگان متاورس در مورد چگونگی بهبود بازی ها و “جهان” خود توصیه کند.
او بخشی از طبقه جدیدی از کارگران است که به عنوان عوامل امنیتی خصوصی از ایمنی در متاوره محافظت می کنند و با آواتارهای افراد بسیار واقعی در تعامل هستند تا رفتار نادرست واقعیت مجازی را شناسایی کنند. او وضعیت ناظم خود را به طور عمومی فاش نمی کند. در عوض، او کم و بیش مخفی کار می کند و به عنوان یک کاربر معمولی معرفی می شود تا بهتر شاهد تخلفات باشد.
از آنجایی که ابزارهای تعدیل سنتی، مانند فیلترهای دارای هوش مصنوعی روی کلمات خاص، به خوبی به محیطهای غوطهور در زمان واقعی ترجمه نمیشوند، مدهایی مانند یککانتی راه اصلی برای تضمین ایمنی در دنیای دیجیتال هستند و کار هر روز اهمیت بیشتری پیدا میکند. دایی
مشکل ایمنی متاورس
مشکل ایمنی متاورس پیچیده و مبهم است. روزنامه نگاران مواردی از اظهارنظرهای توهین آمیز، کلاهبرداری، تجاوز جنسی و حتی آدم ربایی را گزارش کرده اند که از طریق Oculus متا سازماندهی شده است. بزرگترین پلتفرمهای غوطهور، مانند Roblox و Meta’s Horizon Worlds، آمار خود را در مورد رفتار بد بسیار خاموش نگه میدارند، اما یککانتی میگوید که او هر روز با تخلفات قابل گزارشی مواجه میشود.
متا از اظهار نظر در مورد این رکورد خودداری کرد، اما فهرستی از ابزارها و سیاست هایی را که در اختیار دارد ارسال کرد و خاطرنشان کرد که متخصصان ایمنی را در Horizon Worlds آموزش داده است. یکی از سخنگویان Roblox می گوید که این شرکت دارای “تیمی متشکل از هزاران ناظر است که به صورت 24 ساعته بر محتوای نامناسب نظارت می کنند و گزارش های ارسال شده توسط جامعه ما را بررسی می کنند” و همچنین از یادگیری ماشینی برای بررسی متن، تصاویر و صدا استفاده می کند.
برای مقابله با مسائل ایمنی، شرکتهای فناوری به داوطلبان و کارمندانی مانند راهنماهای جامعه متا، ناظران مخفی مانند یککانتی، و – به طور فزایندهای – ویژگیهای پلتفرمی که به کاربران اجازه میدهد ایمنی خود را مدیریت کنند، روی آوردهاند، مانند یک خط مرزی شخصی که دیگر کاربران را از دسترسی به آن باز میدارد. خیلی نزدیک.