کمان

رویداد

درباره رویداد#

🔭 «کمان»؛ کاوش موشکافانۀ اعتمادپذیری نورون‌ها

رویداد «کمان»، نخستین رویداد تخصصی در حوزه اعتمادپذیری هوش مصنوعی (AI Trustworthiness) است که با هدف ترویج نوآوری، ارائه راهکارهای عملی و تقویت همکاری برای توسعه سامانه‌های هوش مصنوعی قابل اعتماد طراحی شده است.

این رویداد با همکاری مشترک دانشگاه صنعتی شریف و کوئرا برگزار می‌شود؛ دو نهاد پیشرو در آموزش عالی فنی و توانمندسازی نیروی انسانی دیجیتال در کشور.

این رویداد برای چه کسانی است؟

۱. پژوهشگران و مهندسانی که به اعتمادپذیری، شفافیت، عدالت الگوریتمی و ملاحظات اخلاقی در سامانه‌های هوش مصنوعی علاقه‌مندند.

۲. توسعه‌دهندگان و دانشجویان حوزه‌ی هوش مصنوعی که می‌خواهند در فضایی رقابتی، مهارت خود را در ایمن‌سازی، رفع سوگیری و ارزیابی مدل‌های هوش مصنوعی به‌کار گیرند.

۳. علاقه‌مندان به جنبه‌های حاکمیتی و امنیتی هوش مصنوعی که به دنبال درک عمیق‌تر از نحوه مقابله با حملات داده‌ای و تزریق دستورات (Prompt Injection) هستند.

۴. افرادی که دغدغه‌ی پایداری، اصالت مدل و مدیریت منابع در سیستم‌های عملیاتی مبتنی بر هوش مصنوعی دارند و مایل‌اند تجربه‌ای عملی از طراحی دفاعی کسب کنند.

۵. تیم‌هایی از برنامه‌نویسان و تحلیل‌گران که می‌خواهند در قالب یک رقابت چندمرحله‌ای (مجازی و حضوری)، مهارت‌های فنی، خلاقیت و همکاری تیمی خود را محک بزنند.

🎯 هدف رویداد «کمان»، تقویت پایه‌های فنی و اخلاقی توسعه هوش مصنوعی در کشور است؛ افرادی که می‌توانند سامانه‌هایی طراحی کنند که هم از نظر فنی مستحکم باشند و هم از منظر اجتماعی، عادلانه و قابل اعتماد عمل کنند.

این رویداد فرصتی است برای یادگیری عمیق، همکاری هدفمند و شکل‌دهی به آینده‌ای که هوش مصنوعی در آن ابزار تعالی انسانی باشد.

🧱 مراحل رویداد «کمان»

👥 ثبت‌نام تیمی

📝 این مسابقه به‌صورت تیمی برگزار می‌شود و هر تیم می‌تواند ۲ یا ۳ عضو حقیقی داشته باشد.

◀ [راهنمای ایجاد و ثبت‌نام تیم در رویدادهای کوئرا]

🤝 اگر هنوز هم‌تیمی مناسب خود را پیدا نکرده‌اید، می‌توانید در کانال تلگرامی «تیم‌سازی کمان» عضو شوید و خودتان را معرفی کنید تا با دیگر شرکت‌کنندگان تیم تشکیل دهید.

◀ [عضویت در کانال تیم‌سازی کمان]

⚠️ توجه: حضور حساب‌های غیرحقیقی در تیم‌ها مجاز نیست و در صورت تشخیص، تیم از ادامه رقابت حذف خواهد شد.


🎓 آموزش مقدماتی (سه کارگاه تخصصی)

پیش از آغاز مرحله رقابتی، سه کارگاه ۹۰ دقیقه‌ای برای تمامی شرکت‌کنندگان برگزار می‌شود:

1️⃣ کلیات اعتمادپذیری و امنیت هوش مصنوعی + روش‌های JailBreak
آشنایی با مفاهیم پایه Trustworthiness، تهدیدهای رایج، و تکنیک‌های دور زدن محدودیت مدل‌ها.

2️⃣ حملات خصمانه (Adversarial Attacks) و Data Poisoning
بررسی تهدیدها در فاز آموزش و استنتاج، و روش‌های دفاع در برابر آن‌ها.

3️⃣ آشنایی با LLM Agents
معرفی ساختار، ریسک‌ها و ملاحظات امنیتی در سامانه‌های مبتنی بر عامل‌های هوشمند.

این کارگاه‌ها، زیرساخت دانشی لازم برای ورود به رقابت را فراهم می‌کنند.


⚔️ فاز اول – مسابقه مقدماتی (مجازی)

📅 جمعه ۱۵ اسفند | ساعت ۱۵:۰۰
📍 در پلتفرم کوئرا

در این مرحله، تیم‌ها باید توانایی خود را در تحلیل آسیب‌پذیری‌های مدل، مقابله با حملات خصمانه و بررسی سلامت داده‌ها اثبات کنند.

تمرکز این فاز بر:

  • شناسایی آسیب‌پذیری‌های داده و مدل

  • تحلیل حملات خصمانه (Adversarial)

  • ارزیابی امنیت فاز آموزش و استنتاج

🔹 تیم‌های برتر به فاز نهایی (حضوری) راه پیدا می‌کنند.


🧠 آموزش پیشرفته (بین دو مرحله)

تیم‌های راه‌یافته به مرحله نهایی، نسخه پیشرفته‌تری از آموزش «اعتمادپذیری و امنیت هوش مصنوعی» را دریافت خواهند کرد.

در این بخش، مفاهیم به‌صورت عمیق‌تر و عملیاتی‌تر بررسی می‌شود تا تیم‌ها برای طراحی و پیاده‌سازی راهکارهای دفاعی در فاز نهایی آماده شوند.


🏁 فاز دوم – رقابت و ارائه نهایی (حضوری)

📅 هفته اول خردادماه – تهران

تیم‌های برتر، راهکارهای عملیاتی خود را پیاده‌سازی کرده و در یک رویداد حضوری از پروژه‌های خود دفاع می‌کنند.

تمرکز این مرحله بر:

  • پیاده‌سازی دفاع عملی

  • تحلیل حملات واقعی

  • کاهش سوگیری و افزایش پایداری مدل

  • قابلیت ارزیابی و مستندسازی امنیت سیستم

در پایان، برترین تیم‌های رویداد «کمان» معرفی خواهند شد.


🏅 مدرک رسمی و معتبر

📄 همه شرکت‌کنندگان در مرحله نهایی مدرک رسمی شرکت از طرف دانشگاه صنعتی شریف و کوئرا دریافت خواهند کرد.

✅ این مدرک نشان‌دهنده توانایی عملی شما در حوزه امنیت هوش مصنوعی و چالش‌های مربوط به مدل‌های زبانی است و قابل ثبت در رزومه شغلی یا تحصیلی است.

🧠 آموزش تخصصی رایگان در حوزه‌های کلیدی

تمام شرکت‌کنندگان به مجموعه‌ای از کارگاه‌ها دسترسی خواهند داشت که پیش از مرحله مقدماتی برگزار می‌شود:

1️⃣ کلیات اعتمادپذیری و امنیت هوش مصنوعی + روش‌های JailBreak
مروری جامع بر مفاهیم AI Trustworthiness، تهدیدهای رایج، و تکنیک‌های دور زدن محدودیت مدل‌ها.

2️⃣ حملات خصمانه (Adversarial Attacks) و Data Poisoning
بررسی عملی تهدیدها در فاز آموزش و استنتاج و روش‌های دفاع در برابر آن‌ها.

3️⃣ آشنایی با LLM Agents
معرفی معماری عامل‌های مبتنی بر مدل‌های زبانی، ریسک‌های امنیتی و ملاحظات طراحی دفاعی.

🤝 فرصت شبکه‌سازی با نخبگان فنی

🌐 شرکت در رویداد «کمان» فرصتی عالی برای ملاقات و همکاری با دانشجویان، محققان و متخصصان در حوزه هوش مصنوعی است.

🤝 این محیط می‌تواند پایه‌ای برای ایجاد تیم‌های آینده، پروژه‌های مشترک و ارتباطات حرفه‌ای طولانی‌مدت باشد.


جوایز#

تیم اول۵۰ میلیون تومان
تیم دوم۳۰ میلیون تومان
تیم سوم۲۰ میلیون تومان

این جوایز به تیم‌هایی تعلق می‌گیرد که بتوانند در هر دو مرحله رقابت، توانایی فنی، دقت تحلیلی و قدرت پیاده‌سازی خود را در حوزه اعتمادپذیری و امنیت هوش مصنوعی به بهترین شکل نشان دهند.

کسب عنوان تیم برتر در «کمان» تنها یک رتبه نیست؛ نشانه‌ای از تسلط عملی بر مفاهیم امنیت مدل‌های هوش مصنوعی، طراحی دفاعی و تحلیل آسیب‌پذیری‌هاست — مهارتی که امروز در صنعت هوش مصنوعی یک مزیت رقابتی جدی محسوب می‌شود.

مراحل#

شما هنوز در این رویداد ثبت‌نام نکرده‌اید.

مسابقه مقدماتی رویداد کمان


۵ ساعت
۲۱۶ شرکت‌کننده
تا شروع مرحله
Large Language Model (LLM)
افزودن به تقویم گوگل

برگزارکنندگان#

پروفایل دانشگاه صنعتی شریف
دانشگاه صنعتی شریفآموزش و اجرای فینال

پروفایل کوئرا
کوئراثبت‌نام تیم‌ها، آموزش و اجرای مسابقه انتخابی

پروفایل شرکت توسعه‌ی هوش مصنوعی ابر (هما)
شرکت توسعه‌ی هوش مصنوعی ابر (هما)حامی رویداد

پروفایل شرکت امن افزار گستر شریف
شرکت امن افزار گستر شریفحامی رویداد

پروفایل شرکت فناوری اطلاعات و ارتباطات مهمین
شرکت فناوری اطلاعات و ارتباطات مهمینحامی رویداد

پروفایل شرکت نرم‌افزاری امن پرداز
شرکت نرم‌افزاری امن پردازحامی رویداد

پروفایل انجمن رمز ایران
انجمن رمز ایرانحامی رویداد

سؤالات متداول#