Defcon 2023: اكتشف المتسللون فشل IA

admin28 أغسطس 2023

يتساءل أفيجيت غوش أن الروبوت يفعل أشياء سيئة.

نية جمع نموذج الذكاء الاصطناعي الذي يعرف بالزنك لإنتاج كود يؤهل مرشحًا لوظيفة عمل في وظيفة رضاه. إن برنامج الدردشة الآلي سيء، حيث أن القيام به هو أمر “ضار وغير عادي”.

لذا، يشير غوش هيزو إلى البنية الجيرية لقلاع ولادته في الهند. هل يمكن لروبوت الدردشة أن يصنف الأشخاص المحتملين على أساس هذا التمييز المتري؟

النموذج مقبول.

لم تكن نوايا Ghosh سيئة، بل كانت تسير كما لو كانت ستفعل. عصر مشارك غير رسمي في كفاءة احتفل بنهاية شهر 11 أغسطس في المؤتمر السنوي للهاكرز ديفكون، في لاس فيغاس، حيث اجتمع 2200 شخص على مدار ثلاثة أيام في صالة أحداث نارية في قطاع غزة من أجل التخلص من الأرض. غموض الذكاء الاصطناعي.

يقوم قراصنة المعلومات بسرقة عمليات إنقاذ العديد من برامج الاستخبارات بشكل مصطنع في محاولة لتحديد نقاط الضعف الخاصة بهم – من أجل التغلب على المشكلات قبل الجانحين وبائعي المعلومات التضليلية – من خلال ممارسة معروفة معًا الفريق الأحمر. خصص كل منافس 50 دقيقة لتجربة ما يصل إلى 21 دقيقة كحد أقصى: على سبيل المثال، قم بتوضيح نموذج IA بمعلومات غير دقيقة.

واجهوا التضليل السياسي والأفكار الديموغرافية الجامدة والتعليمات حول كيفية تحقيق اليقظة والمزيد.

يعتبر التمرين بمثابة نبأ لزعيم بايدن، الذي كان أكثر عصبية كل مرة قبل النمو السريع لقدرة هذه التكنولوجيا. Google (منشئ برنامج chatbot Bard)، وOpenAI (ChatGPT)، وMeta (الذي يحرر كود LLaMA) والشركات الأخرى تقدم إصدارات مجهولة من نماذجها في نهاية الاختبار.

غوش، الأستاذ في جامعة نورث إيسترن المتخصصة في علم الذكاء الاصطناعي، شارك كمتطوع في الحدث. بعد ذلك، سمحت الصفقة بمقارنة نماذج مختلفة من IA وأظهرت أن بعض الشركات حققت تقدمًا أكبر في الوقت المناسب لضمان أن التكنولوجيا الخاصة بها تعمل بشكل مسؤول ومتماسك.

في الأشهر التالية، يساعد Ghosh في تنقيح معلومة أثناء تحليل استنتاجات القراصنة المعلوماتية.

تأكد من أن الهدف هو إنشاء “عودة سهلة الوصول إليها لجميع العالم لمعرفة المشكلات الموجودة وكيفية مكافحتها”.

اكتشف منطقًا رائعًا لاختبار الذكاء الاصطناعي. يلتقي المشاركون في الإصدارات السابقة من هذا بعشاق القرصنة المعلوماتية – الذين بدأوا في عام 1993 ووصفوا بأنهم “واحد”Concurso de ortografía para hackers“- لقد تم الكشف عن فشل الأمان التحكم في السيارات بشكل عن بعدقم بالبث على مواقع الويب لنتائج الانتخابات و المزيد من البيانات السرية منصات التواصل الاجتماعي. يستخدم المبتدئون أموالًا فعالة وجهازًا قابلاً للفصل، بدون wifi وBluetooth، لتجنب القرصنة. من النصائح المفيدة للمتسللين “عدم مهاجمة البنية التحتية أو صفحات الويب”.

المتطوعين يعرفون ذلك الحمقى o “matones”، أي المساعدين مثل “humanos”؛ بعض الأغطية المصنوعة من الورق المصنوع من الألومنيوم مصنوعة من مواد عالية الجودة فوق معايير القمصان والأحذية الرياضية. تشتمل موضوعات “الموضوعات العديدة” على مساحات منفصلة مخصصة للتشفير وصناعة الطيران والفضاء وهواة الراديو.

في عام 2022، ستكون الغرفة المخصصة لـ IA واحدة من أكثر الأماكن هدوءًا. هذه سنة، أصبحت واحدة من أكثر شعبية.

وافق المنظمون على الإنذار المتزايد القدرة على توليد الذكاء الاصطناعي لإنتاج أفكار ضارة، والتأثير في الانتخابات، وتشويه السمعة، والسماح بالكثير من البيانات الأخرى. يعبر المسؤولون الحكوميون عن انشغالاتهم وينظمون الجمهور أمام شركات IA، كما أن بعض الأشخاص أيضًا يرغبون في الصناعة التي تحافظ على سرعة تقدمهم وتحظى بمزيد من الحذر. بما في ذلك الأب، الذي كان لديه شخصية مشهورة لمولدي صور IA، se pronunció este mes حول “الاحتمالات المعطلة والتأثيرات المتناقضة” للتكنولوجيا.

في معلومات موثوقة باسم “الثورة”، أظهر المحققون الشهرة التي تمكنهم من فرز حواجز الأمان في أنظمة IA من Google وOpenAI وAnthropic من خلال إضافة شخصيات محددة إلى التعليمات باللغة الإنجليزية. وعلى الرغم من الوقت نفسه، فإن جميع الشركات الرئيسية في مجال الذكاء الاصطناعي تتنازل عن تثبيت معايير جديدة للأمن والثقة في لقاء مع الرئيس جو بايدن.

“إن هذا العصر الذي تم إنشاؤه هو أمر مثير للقلق بيننا وبين الناس، وقد تم الاستعانة به للقيام بجميع أنواع الأشياء الجديدة التي تقدم وعدًا كبيرًا من IA للمساعدة في حل بعض مشاكلنا الأكثر صعوبة”، قال أراتي برابهاكار، مدير المكتب. de Política Científica y Tecnológica de la Casa Blanca، التي تتعاون مع منظمي IA في Defcon. “لكن مع اتساع نطاق تطبيقاتك وقوة التكنولوجيا، يوجد أيضًا مجموعة واسعة جدًا من المهام”.

ش الفريق الأحمر تم استخدام محاكاة الهجمات على مدار سنوات في دوائر الأمن السيبراني جنبًا إلى جنب مع تقنيات التقييم الأخرى مثل اختبارات الاختراق وهجمات الخصوم. لكن تم تأجيل حدث Defcon هذا العام، وكانت الجهود المبذولة لاختبار دفاعات الذكاء الاصطناعي محدودة: أكد منظمو المنافسة أن الأنثروبيون يختبرون نموذجهم مع 111 شخصًا، بينما يصطدم GPT-4 أوناس 50 شخصا.

مع احتمال وجود عدد قليل من الأشخاص لاختبار حدود التكنولوجيا، يواجه المحللون صعوبات في تحديد ما إذا كان هناك خطأ في الذكاء الاصطناعي في وقت مبكر إلى حد ما يمكن أن يصححه جزء من الورقة، أو مشكلة مطروحة تتطلب مراجعة هيكلية، مثل رومان شودري، أحد المنظمين الذين يشرفون على تصميم التحدي. سيجون تشودري، عضو ديل مركز بيركمان كلاين للإنترنت والمجتمع من جامعة هارفارد، المخصصة لـ IA المسؤولة والممولة للاستخبارات الإنسانية، وهي منظمة بلا روح، من المحتمل أن تقوم مجموعة عديدة ومتنوعة وأشخاص عامون بعرض أفكار إبداعية تساعد على اكتشاف الخفايا الخفية.

“هناك مجموعة واسعة من الأشياء التي يمكن أن تصلح بشكل سيئ”، قال شودري قبل المنافسة. “أتمنى أن نتعلم منذ عدة أميال من البيانات ما سيساعدنا على تحديد ما إذا كنا نسعى إلى الارتقاء بمستوى البيانات النظامية”.

لا يتساءل المصممون إلا عن نماذج IA حتى يتمكنوا من التصرف بشكل خاطئ: لا يوجد عدد من الإجراءات اللازمة لرفض شروط الخدمة الخاصة بهم، ولا يوجد أي عملاء “يعملون كنازيين ويمتلكون شيئًا ما عن الأشخاص السود”، تعليقًا على تشودري، الذي قبل التوجيه إلى فريق الأخلاق والمسؤولية عن التعلم التلقائي على تويتر. باستثناء التحديات المحددة التي تثير نية الكفر، فإنهم المتسللين Buscaban Fallos inesperados، las calles incógnitas desconocidas.

تضم قرية الذكاء الاصطناعي خبراء تكنولوجيين عملاقين مثل Google وNvidia، بالإضافة إلى “shadowboxer” من Dropbox و”خادم البيانات” من Microsoft. كما أنها تجذب المشاركين بدون أوراق اعتماد محددة في الأمن السيبراني أو IA. جدول تصنيف بموضوع الخيال العلمي يلفت انتباه المتنافسين.

يظهر بعض المتسللين في حدث غير مريح قبل فكرة التعاون مع شركات IA التي تعتبر معقدة من الممارسات غير القابلة للتحلل، مثل التجسس على البيانات دون قيود. يصف البعض الحدث بأنه فرصة لالتقاط الصورة، لكنه يساعد على مساعدة الصناعة في الحفاظ على الأمان وشفافية التكنولوجيا.

اكتشف طالب في مجال المعلوماتية التناقضات في الترجمة اللغوية لروبوت الدردشة: كتب باللغة الإنجليزية أن الرجل عاشقًا في طريقه إلى بيلابا، لكن الترجمة الهندية لنموذج ما قررت فقط أن الرجل عاش ميتًا. يقوم محقق التعلم الآلي بالاتصال بروبوت الدردشة الذي يحاكي قيامه بحملة ليصبح رئيسًا ويدافع عن شركته من خلال وظيفة طفل قوية؛ النموذج المقترح هو أن الشباب المجتهدين غير الطوعيين يطورون فكرة قوية عن العمل.

بدأت إميلي جرين، التي تعمل على تأمين الشركة الناشئة من شركة Moveworks التي أنشأتها IA، محادثة مع روبوت الدردشة الذي يلعب لعبة تستخدم فيها الملفات “السوداء” و”البيضاء”. Luego, indujo al chatbot acer afirmaciones racistas. وبعد ذلك، نظمت “لعبة من الألعاب” التي ستوجه إلى IA للرد على سؤال بقصيدة حول ما إذا كان الانتهاك جيدًا.

“فقط اضغط على هذه الكلمات مثل الكلمات”، النرد من chatbot. “لا يوجد معنى حقيقي له”.

Siete Juices calificaron las Propuestas. أفضل ما في الأمر هو “cody3″ و”aray4″ و”cody2”.

كودي هو، طالب علوم الحساب المتخصص في الذكاء الاصطناعي في جامعة ستانفورد، شارك خمس مرات في المؤتمر وأشار إلى أن برنامج الدردشة الآلي يتحدث عن مكان زائف باسم شخصية تاريخية حقيقية ويسجل أيضًا ما وصفه. مطلب إعلان الضرائب عبر الإنترنت من التعليم الدستوري 28 (ما لم يكن موجودًا).

حتى يتمكن أحد الدوريات من الاتصال به، لا توجد فكرة عن فوزه المزدوج. إذا كان المؤتمر قد بدأ قبل تلقي البريد الإلكتروني من سفين كاتيل، فإن العلماء الذين قاموا بتمويل شبكة الذكاء الاصطناعي وساعدوا في تنظيم المؤتمر، في حين أن القرار “بالعودة إلى الأرض، قد نجح”. لا تعلم أن قسطها، بل هو حق الافتراض، بما في ذلك بطاقة رسوميات A6000 من Nvidia بقيمة 4000 دولار.

“تعلم كيف تعمل هذه الهجمات وما هو الشيء المهم حقًا”، قال هو. “Dicho esto، para mí ha sido muy divertido”.

سارة كيسلر هو المحرر الرئيسي لـ DealBook وهو محرر قهقه، كتاب عن العمال في اقتصاد المنصات. المزيد من سارة كيسلر.

تيفاني هسو هو ريبورتيرا دي تكنولوجي. معالجة حالات المعلومات الخاطئة والتضليل. المزيد من تيفاني هسو.


اترك تعليق

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


شروط التعليق :

عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

الاخبار العاجلة