DALL-E AI اکنون می تواند تصاویر دقیقی از چهره های خیالی انسان ایجاد کند

DALL-E، هوش مصنوعی این شرکت OpenAI اخیراً در رسانه های اجتماعی سرفصل های زیادی را به خود اختصاص داده است زیرا می تواند تصاویر عجیب و غریبی از پیام های متنی ایجاد کند. OpenAI می گوید تغییراتی در مدل هوش مصنوعی ایجاد کرده است تا محققان بتوانند تصاویری از چهره انسان را که در دنیای واقعی وجود ندارد به اشتراک بگذارند.

بر اساس ایمیل جدید، کاربران اکنون می توانند تصاویر واقعی از چهره انسان را که توسط DALL-E ایجاد شده است به اشتراک بگذارند. توسعه دهندگان می گویند اقداماتی را برای جلوگیری از تولید تصاویر دیفتری انجام داده اند.

VICE می نویسد که توسعه دهندگان دو ویژگی امنیتی جدید را به این هوش مصنوعی اضافه کرده اند. با این سیستم های امنیتی، DALL-E هرگونه تلاش برای ایجاد تصاویری شبیه افراد مشهور، از جمله افراد مشهور را رد می کند. DALL-E همچنین اجازه آپلود تصاویر به صورت انسان را نمی دهد. تا زمانی که به‌روزرسانی‌های جدید اجرا نشدند، سیستم امنیتی DALL-E به سادگی تلاش‌ها برای ایجاد تصویری از شخصیت‌های سیاسی را خنثی می‌کرد.

محققان قبلا نمونه های اولیه از چهره های ایجاد شده با DALL-E را در رسانه های اجتماعی منتشر کرده اند و نتایج بسیار عجیب به نظر می رسد.

DALL-E AI هنوز در مرحله آزمایشی است و توسط تعداد محدودی از محققان استفاده می شود. OpenAI برای محققان محدودیت هایی دارد، بنابراین آنها نمی توانند هر آنچه در مورد DALL-E می دانند با عموم به اشتراک بگذارند.

  کروم نسخه 104 با بهبود سرعت بارگذاری صفحه، تغییرات ظاهری و غیره منتشر شد

در همین حال، پروژه های داوطلبانه کوچکتر مانند DALL-E Mini به عموم مردم اجازه می دهد تا تصاویر و میم هایی را بر اساس هوش مصنوعی از پیام های متنی ایجاد کنند. البته نتایج DALL-E Mini کیفیت بسیار پایین تری نسبت به DALL-E دارد.

مقالات مرتبط:

توانایی DALL-E بسیاری از مسائل اخلاقی را برای ایجاد تصویری از چهره انسان مطرح می کند، حتی با علم به اینکه چهره ها متعلق به افراد واقعی نیستند. محققان اخلاقی در زمینه هوش مصنوعی هشدار می دهند که سیستم های بزرگ یادگیری ماشینی مانند DALL-E می توانند از طریق رفتارهای تبعیض آمیز به افراد محروم آسیب برسانند و نمی توان چنین رفتاری را به راحتی از سیستم حذف کرد.

محققان OpenAI اذعان کردند که وقتی کلمات خاصی در یک پیام متنی جاسازی می‌شوند، DALL-E اغلب محتوای نژادپرستانه و جنسی ایجاد می‌کند. سایر مدل‌های هوش مصنوعی که توسط شرکت‌های بزرگی مانند فیس‌بوک و گوگل ساخته شده‌اند، عملکرد بهتری نداشته‌اند.

محققان هوش مصنوعی می گویند با پیاده سازی سیستم های امنیتی هر کاری که ممکن است انجام می دهند تا از سوء استفاده از مدل های یادگیری ماشینی جلوگیری کنند. با این حال، در حال حاضر، به نظر می رسد که ما اطلاعات زیادی در مورد قابلیت های سیستم هایی مانند DALL-E و آسیب هایی که این سیستم ها می توانند ایجاد کنند، نداریم.

دیدگاهتان را بنویسید