تخيل أنك محترف أمن سيبراني يستيقظ كل صباح لمواجهة تحديات جديدة. أنظمة معقدة، ثغرات متخفية، وفريق دفاعي يتعزز يومًا بعد يوم. هنا يأتي دور Red Team الفريق الأحمر المكلف بمحاكاة المهاجمين الحقيقيين لاختبار قوة دفاعات المؤسسة.
لكن ما الذي يحدث عندما يُدعم هذا الفريق بأدمغة اصطناعية قادرة على معالجة ملايين السطور البرمجية في ثوانٍ؟ هذا بالضبط ما يفعله تكامل نماذج اللغة الكبيرة (LLMs) في عالم Red Team. إنه ليس مجرد تحديث تقني، بل هو تحول جذري في كيفية بناء الأدوات، تنفيذ الهجمات، وصياغة الاستراتيجيات.
في هذا المقال، سنتعمق في كيفية استخدام Red Team و LLMs معًا لإنشاء جيل جديد من أدوات الاختبار الاختراقي. سنبتعد عن النظريات المجردة ونركز على التطبيق العملي، الأمثلة الواقعية، والفرص والمخاطر التي ترافق هذه الثورة التقنية.
ما هو Red Team حقًا؟
قبل أن نتكلم عن الذكاء الاصطناعي، علينا أن نفهم المهمة الأساسية. Red Team ليس مجرد مجموعة من "الهاكرز الأخلاقيين" الذين يحاولون اختراق الأنظمة. الأمر أعمق من ذلك بكثير.
Red Team هو فريق متخصص يُحاكي تكتيكات وتقنيات وإجراءات المهاجمين المتقدمين (Advanced Persistent Threats). هدفهم ليس إيجاد ثغرة هنا أو هناك، بل اختبار **القدرة الكاملة** للمؤسسة على الصمود أمام هجوم حقيقي. هذا يشمل:
نماذج اللغة الكبيرة (LLMs): القوة الخارقة الجديدة
الآن، دعنا نتحدث عن النجم الصاعد: نماذج اللغة الكبيرة مثل GPT-4، Claude، Llama، ونماذج مخصصة للبرمجة مثل CodeLlama. هذه الأنظمة تعلمت من كميات هائلة من البيانات النصية والبرمجية، مما يمنحها قدرات استثنائية:
1. فهم السياق البرمجي العميق
يمكن لـ LLM أن يقرأ كود مصدر برنامج ما ويفهم المنطق وراءه، لا مجرد الصياغة. هذا يعني اكتشاف أنماط الثغرات المعقدة التي قد تفوت أدوات التحليل التقليدية.
2. توليد المحتوى الديناميكي
سواء كان بريدًا تصيديًا مقنعًا، أو سكربت اختراق مخصص، أو تقريرًا تقنيًا مفصلًا — LLMs تُنتج محتوى أصليًا يتكيف مع السياق فورًا.
3. التفاعل والتعلم المستمر
بعض التطبيقات تستخدم LLMs في وكلاء (Agents) يتفاعلون مع الأنظمة، يتعلمون من النتائج، ويُحسّنون استراتيجياتهم بشكل ذاتي.
4. معالجة اللغة الطبيعية المتقدمة
هذه القدرة تفتح أبوابًا واسعة في الهندسة الاجتماعية، حيث يمكن للذكاء الاصطناعي أن يحلل شخصية الهدف، يُنشئ رسائل مُقنعة، ويحافظ على حوار طبيعي.
كيف يُطور Red Team أدواته باستخدام LLMs؟
هنا يأتي الجزء العملي. لن نتحدث عن "المستقبل" — هذه الأدوات تُبنى **الآن** من قبل فرق Red Team في أكبر الشركات التقنية والاستشارية الأمنية.
تطوير أدوات الاستغلال التلقائي (Exploit Generation)
في السابق، كان اكتشاف ثغرة ما يتطلب أيامًا من التحليل اليدوي. اليوم، يستخدم مهندسو Red Team LLMs لتسريع العملية بشكل كبير:
المثال العملي: لنفترض أنك وجدت برنامجًا مفتوح المصدر يستخدم في شركة هدفك. بدلًا من قراءة آلاف الأسطر يدويًا، تُدخل الكود إلى نظام مدعوم بـ LLM مُدرب على أنماط الثغرات الشائعة (Buffer Overflow، SQL Injection، XSS). خلال دقائق، يُقدم النموذج قائمة بالدوال المشبوهة، نقاط الضعف المحتملة، وحتى مسودات كود استغلال أولية.
أدوات مثل Snyk DeepCode AI وGitHub Copilot (عند استخدامها بشكل هادف) تُظهر كيف يمكن للذكاء الاصطناعي أن يُصبح شريكًا في مراجعة الكود الأمنية. لكن في سياق Red Team، يتم تخصيص هذه القدرات لتوليد **هجمات** لا مجرد دفاعات.
بناء وكلاء Red Team الذكيين (AI Agents)
أحد أكثر التطبيقات إثارة هو إنشاء وكلاء ذكاء اصطناعي يعملون بشكل مستقل:
تحسين الهندسة الاجتماعية بشكل غير مسبوق
ربما يكون هذا هو المجال الأكثر إثارة للجدل والقوة في آن واحد. LLMs يُغيرون قواعد اللعبة في التصيد الاحتيالي:
السيناريو: تريد اختبار وعي موظفي شركة مالية. بدلًا من بريد تصيدي عام، تستخدم LLM لـ:
توليد حمولات الاختبار (Test Payloads)
في اختبار الاختراق، تحتاج أحيانًا لإنشاء ملفات أو سكربتات مخصصة لكل بيئة. LLMs يُسهّلون هذا بشكل كبير:
هل يُمكن لـ LLMs أن يُحلّوا محل Red Teamers البشريين؟
هذا السؤال يتردد في أروقة المؤتمرات الأمنية. الإجابة القصيرة: لا، ليس بالكامل.
LLMs أدوات قوية، لكنها تفتقر لـ:
المزايا الرئيسية لاستخدام LLMs في Red Team
السرعة الفائقة في التطوير
ما كان يستغرق أسابيع من تطوير أداة مخصصة، أصبح يتم في ساعات. هذا يُتيح للفرق إجراء اختبارات أكثر تكرارًا وشمولًا.
التكيف مع البيئات المتغيرة
الأنظمة تتغير، والدفاعات تتطور. LLMs يمكنها تعديل أدواتها بسرعة لتتناسب مع التحديثات الأمنية الجديدة.
تقليل الأخطاء البشرية
البرمجة اليدنية عرضة للأخطاء. LLMs، عند استخدامها بشكل صحيح، تُقدم كودًا أكثر اتساقًا ووثائق أفضل.
التوسع في نطاق الاختبار
فريق Red Team صغير يمكنه الآن "تغطية" مساحة أوسع بفضل الأدوات المدعومة بالذكاء الاصطناعي.
المخاطر والتحديات: الجانب المظلم
مع القوة العظيمة تأتي المسؤولية العظيمة. استخدام LLMs في Red Team يُثير مخاوف جدية:
1. الاستخدام الخبيث من قبل المهاجمين الحقيقيين
إذا كانت أدوات Red Team تستخدم LLMs، فالمهاجمون سيستخدمونها أيضًا — بل ربما بشكل أكثر عدوانية لأنهم غير مقيدين بالأخلاقيات. هذا يُنشئ "سباق تسلح" ذكيًا قد يُفيد المهاجمين أكثر في النهاية.
2. التحيز والأخطاء في النماذج
LLMs يمكنها "الهلوسة" — تُقدم معلومات خاطئة بثقة. في سياق Red Team، هذا قد يعني:
إذا اعتمد فريق Red Team بشكل كامل على LLMs، قد تضعف مهاراتهم اليدنية. عندما يفشل الذكاء الاصطناعي، قد يجد الفريق نفسه عاجزًا.
4. المخاوف القانونية والأخلاقية
استخدام LLMs لتوليد محتوى تصيدي مقنع يُثير أسئلة حول:
عند استخدام LLMs السحابية (مثل GPT-4)، هناك خطر دائم من تسريب معلومات حساسة إلى خوادم الشركات المطورة. هذا يُحتم استخدام نماذج محلية (On-premise) في بيئات Red Team الحساسة.
نصائح للاستخدام المسؤول والفعّال
إذا كنت تخطط لدمج LLMs في أدوات Red Team، اتبع هذه المبادئ:
1. حدد الغرض بوضوح
لا تستخدم LLMs "لأنها رائجة". استخدمها لحل مشاكل محددة: تسريع تطوير الأدوات، تحسين الهندسة الاجتماعية، أو أتمتة الاستطلاع.
2. تحقق دائمًا من المخرجات
لا تنفذ كودًا مولدًا من LLM دون مراجعة يدوية. استخدمه كنقطة انطلاق، ليس كمنتج نهائي.
3. حافظ على النماذج محليًا عند العمل على بيانات حساسة
استخدم نماذج مفتوحة المصدر مثل Llama أو Mistral على بنيتك التحتية الخاصة لتجنب تسريب البيانات.
4. وثّق كل شيء
سجّل كيف ومتى استخدمت LLMs. هذا ضروري للتدقيق الأمني والامتثال القانوني.
5. حافظ على المهارات البشرية
تدرب فريقك على المهارات الأساسية. LLMs أدوات، لا بدائل عن الخبرة البشرية.
6. كن شفافًا مع أصحاب المصلحة
إذا كنت تستخدم AI في اختباراتك، أخبر الإدارة والفرق الدفاعية بذلك. الشفافية تبني الثقة وتُحسّن التعلم.
أمثلة على أدوات Red Team المدعومة بالذكاء الاصطناعي
لنُعطي أمثلة ملموسة على ما يُبنى حاليًا:
1. PentestGPT
أداة مفتوحة المصدر تستخدم GPT-4 لتوجيه اختبارات الاختراق. تتفاعل مع المستخدم، تُقدم اقتراحات للخطوات التالية، وتُولد أوامر مخصصة للأدوات المستخدمة (Nmap، Metasploit، إلخ).
2. AutoGPT في سياق الأمن
بعض الفرق تُعدّل AutoGPT ليعمل كـ "هاكر مستقل" — يُعطى هدفًا (مثل "احصل على وصول إلى قاعدة البيانات") ويسعى لتحقيقه باستخدام LLM للتخطيط وتنفيذ الأوامر.
3. أدوات التصيد المدعومة بالذكاء الاصطناعي
منصات مثل GoPhish تُضيف ميزات AI لتولي حملات تصيد ديناميكية تتكيف مع ردود الأهداف.
4. مولدات Exploits المخصصة
سكربتات Python بسيطة تستخدم APIs الخاصة بـ LLMs لتوليد exploits لـ CVEs محددة بناءً على وصف الثغرة فقط.
تطوير أدوات Red Team باستخدام LLMs ليس مجرد تطور تقني — إنه إعادة تعريف لكيفية نفهم الأمن السيبراني. ننتقل من عالم يعتمد على الخبرة البشرية المتراكمة ببطء، إلى عالم يُمكن فيه للذكاء الاصطناعي أن يُسرّع التعلم والتطبيق بشكل كبير.
لكن هذا المستقبل يحتاج لـ حكمة. القوة التي تمنحنا إياها LLMs يجب أن تُستخدم لبناء دفاعات أقوى، تدريب فرق أكثر وعيًا، وحماية بيانات المستخدمين، لا لإحداث فوضى.
Red Team و LLMs معًا يُشكّلان ثنائيًا قويًا. لكن النجاح الحقيقي يكمن في التوازن: الاستفادة من سرعة وذكاء الآلة، مع الحفاظ على الحكم والأخلاقيات البشرية.
إذا كنت محترفًا في مجال الأمن، الوقت قد حان لتجربة هذه الأدوات. ابدأ بمشاريع صغيرة، تعلم من التجارب، وابنِ خبرتك تدريجيًا. المستقبل للذين يُتقنون التعاون بين الإنسان والآلة.
في هذا المقال، سنتعمق في كيفية استخدام Red Team و LLMs معًا لإنشاء جيل جديد من أدوات الاختبار الاختراقي. سنبتعد عن النظريات المجردة ونركز على التطبيق العملي، الأمثلة الواقعية، والفرص والمخاطر التي ترافق هذه الثورة التقنية.
ما هو Red Team حقًا؟
قبل أن نتكلم عن الذكاء الاصطناعي، علينا أن نفهم المهمة الأساسية. Red Team ليس مجرد مجموعة من "الهاكرز الأخلاقيين" الذين يحاولون اختراق الأنظمة. الأمر أعمق من ذلك بكثير.
Red Team هو فريق متخصص يُحاكي تكتيكات وتقنيات وإجراءات المهاجمين المتقدمين (Advanced Persistent Threats). هدفهم ليس إيجاد ثغرة هنا أو هناك، بل اختبار **القدرة الكاملة** للمؤسسة على الصمود أمام هجوم حقيقي. هذا يشمل:
- التقنية: استغلال الثغرات في الأنظمة والشبكات
- الإنسان: الهندسة الاجتماعية والتصيد الاحتيالي
- الفيزيائي: اختبار الوصول المادي والضوابط الأمنية
نماذج اللغة الكبيرة (LLMs): القوة الخارقة الجديدة
الآن، دعنا نتحدث عن النجم الصاعد: نماذج اللغة الكبيرة مثل GPT-4، Claude، Llama، ونماذج مخصصة للبرمجة مثل CodeLlama. هذه الأنظمة تعلمت من كميات هائلة من البيانات النصية والبرمجية، مما يمنحها قدرات استثنائية:
1. فهم السياق البرمجي العميق
يمكن لـ LLM أن يقرأ كود مصدر برنامج ما ويفهم المنطق وراءه، لا مجرد الصياغة. هذا يعني اكتشاف أنماط الثغرات المعقدة التي قد تفوت أدوات التحليل التقليدية.
2. توليد المحتوى الديناميكي
سواء كان بريدًا تصيديًا مقنعًا، أو سكربت اختراق مخصص، أو تقريرًا تقنيًا مفصلًا — LLMs تُنتج محتوى أصليًا يتكيف مع السياق فورًا.
3. التفاعل والتعلم المستمر
بعض التطبيقات تستخدم LLMs في وكلاء (Agents) يتفاعلون مع الأنظمة، يتعلمون من النتائج، ويُحسّنون استراتيجياتهم بشكل ذاتي.
4. معالجة اللغة الطبيعية المتقدمة
هذه القدرة تفتح أبوابًا واسعة في الهندسة الاجتماعية، حيث يمكن للذكاء الاصطناعي أن يحلل شخصية الهدف، يُنشئ رسائل مُقنعة، ويحافظ على حوار طبيعي.
كيف يُطور Red Team أدواته باستخدام LLMs؟
هنا يأتي الجزء العملي. لن نتحدث عن "المستقبل" — هذه الأدوات تُبنى **الآن** من قبل فرق Red Team في أكبر الشركات التقنية والاستشارية الأمنية.
تطوير أدوات الاستغلال التلقائي (Exploit Generation)
في السابق، كان اكتشاف ثغرة ما يتطلب أيامًا من التحليل اليدوي. اليوم، يستخدم مهندسو Red Team LLMs لتسريع العملية بشكل كبير:
المثال العملي: لنفترض أنك وجدت برنامجًا مفتوح المصدر يستخدم في شركة هدفك. بدلًا من قراءة آلاف الأسطر يدويًا، تُدخل الكود إلى نظام مدعوم بـ LLM مُدرب على أنماط الثغرات الشائعة (Buffer Overflow، SQL Injection، XSS). خلال دقائق، يُقدم النموذج قائمة بالدوال المشبوهة، نقاط الضعف المحتملة، وحتى مسودات كود استغلال أولية.
أدوات مثل Snyk DeepCode AI وGitHub Copilot (عند استخدامها بشكل هادف) تُظهر كيف يمكن للذكاء الاصطناعي أن يُصبح شريكًا في مراجعة الكود الأمنية. لكن في سياق Red Team، يتم تخصيص هذه القدرات لتوليد **هجمات** لا مجرد دفاعات.
بناء وكلاء Red Team الذكيين (AI Agents)
أحد أكثر التطبيقات إثارة هو إنشاء وكلاء ذكاء اصطناعي يعملون بشكل مستقل:
- وكيل الاستطلاع: يتجول في الشبكة، يُحلل البنية التحتية، ويُنشئ خريطة للأنظمة والثغرات المحتملة.
- وكيل الاستغلال: يختبر الثغرات المكتشفة، يُحاول الاختراق، ويُبلغ عن النتائج.
- وكيل التصعيد: عند نجاح الاختراق الأولي، يبحث عن طرق للوصول إلى أنظمة أعلى قيمة.
تحسين الهندسة الاجتماعية بشكل غير مسبوق
ربما يكون هذا هو المجال الأكثر إثارة للجدل والقوة في آن واحد. LLMs يُغيرون قواعد اللعبة في التصيد الاحتيالي:
السيناريو: تريد اختبار وعي موظفي شركة مالية. بدلًا من بريد تصيدي عام، تستخدم LLM لـ:
- تحليل البيانات المتاحة: منشورات LinkedIn، موقع الشركة، الأخبار الصحفية.
- بناء شخصية مُقنعة: محاسب في شركة شريكة، مثلاً.
- صياغة رسالة مخصصة: تستخدم المصطلحات الداخلية، تُشير لحدث حقيقي (مثل "الاجتماع الأخير مع فريقك")، وتطلب إجراءً طبيعي (تأكيد تفاصيل تحويل مالي).
توليد حمولات الاختبار (Test Payloads)
في اختبار الاختراق، تحتاج أحيانًا لإنشاء ملفات أو سكربتات مخصصة لكل بيئة. LLMs يُسهّلون هذا بشكل كبير:
- توليد PowerShell scripts للتحرك جانبيًا (Lateral Movement) في بيئات Windows.
- إنشاء Python exploits مُحسّنة لأنظمة Linux محددة.
- بناء macros خبيثة لـ Word/Excel لاختبار وعي المستخدمين.
هل يُمكن لـ LLMs أن يُحلّوا محل Red Teamers البشريين؟
هذا السؤال يتردد في أروقة المؤتمرات الأمنية. الإجابة القصيرة: لا، ليس بالكامل.
LLMs أدوات قوية، لكنها تفتقر لـ:
- الإبداع التكتيكي: القدرة على ابتكار نهج غير مسبوق.
- الفهم العميق للسياق التنظيمي: معرفة "السياسة" والديناميكيات الداخلية.
- الحكم الأخلاقي: اتخاذ قرارات تحت ضغط أخلاقي حقيقي.
المزايا الرئيسية لاستخدام LLMs في Red Team
السرعة الفائقة في التطوير
ما كان يستغرق أسابيع من تطوير أداة مخصصة، أصبح يتم في ساعات. هذا يُتيح للفرق إجراء اختبارات أكثر تكرارًا وشمولًا.
التكيف مع البيئات المتغيرة
الأنظمة تتغير، والدفاعات تتطور. LLMs يمكنها تعديل أدواتها بسرعة لتتناسب مع التحديثات الأمنية الجديدة.
تقليل الأخطاء البشرية
البرمجة اليدنية عرضة للأخطاء. LLMs، عند استخدامها بشكل صحيح، تُقدم كودًا أكثر اتساقًا ووثائق أفضل.
التوسع في نطاق الاختبار
فريق Red Team صغير يمكنه الآن "تغطية" مساحة أوسع بفضل الأدوات المدعومة بالذكاء الاصطناعي.
المخاطر والتحديات: الجانب المظلم
مع القوة العظيمة تأتي المسؤولية العظيمة. استخدام LLMs في Red Team يُثير مخاوف جدية:
1. الاستخدام الخبيث من قبل المهاجمين الحقيقيين
إذا كانت أدوات Red Team تستخدم LLMs، فالمهاجمون سيستخدمونها أيضًا — بل ربما بشكل أكثر عدوانية لأنهم غير مقيدين بالأخلاقيات. هذا يُنشئ "سباق تسلح" ذكيًا قد يُفيد المهاجمين أكثر في النهاية.
2. التحيز والأخطاء في النماذج
LLMs يمكنها "الهلوسة" — تُقدم معلومات خاطئة بثقة. في سياق Red Team، هذا قد يعني:
- استغلال غير موجود (False Positive) يُضيع الوقت.
- ثغرة حقيقية يتم تجاهلها بسبب إجابة خاطئة من النموذج.
إذا اعتمد فريق Red Team بشكل كامل على LLMs، قد تضعف مهاراتهم اليدنية. عندما يفشل الذكاء الاصطناعي، قد يجد الفريق نفسه عاجزًا.
4. المخاوف القانونية والأخلاقية
استخدام LLMs لتوليد محتوى تصيدي مقنع يُثير أسئلة حول:
- الموافقة: هل الموظفون على علم بأنهم يتفاعلون مع ذكاء اصطناعي؟
- الخصوصية: ما البيانات التي يتم تغذيتها للنماذج؟
- المسؤولية: من يتحمل المسؤولية إذا أدت أداة AI إلى ضرر غير مقصود؟
عند استخدام LLMs السحابية (مثل GPT-4)، هناك خطر دائم من تسريب معلومات حساسة إلى خوادم الشركات المطورة. هذا يُحتم استخدام نماذج محلية (On-premise) في بيئات Red Team الحساسة.
نصائح للاستخدام المسؤول والفعّال
إذا كنت تخطط لدمج LLMs في أدوات Red Team، اتبع هذه المبادئ:
1. حدد الغرض بوضوح
لا تستخدم LLMs "لأنها رائجة". استخدمها لحل مشاكل محددة: تسريع تطوير الأدوات، تحسين الهندسة الاجتماعية، أو أتمتة الاستطلاع.
2. تحقق دائمًا من المخرجات
لا تنفذ كودًا مولدًا من LLM دون مراجعة يدوية. استخدمه كنقطة انطلاق، ليس كمنتج نهائي.
3. حافظ على النماذج محليًا عند العمل على بيانات حساسة
استخدم نماذج مفتوحة المصدر مثل Llama أو Mistral على بنيتك التحتية الخاصة لتجنب تسريب البيانات.
4. وثّق كل شيء
سجّل كيف ومتى استخدمت LLMs. هذا ضروري للتدقيق الأمني والامتثال القانوني.
5. حافظ على المهارات البشرية
تدرب فريقك على المهارات الأساسية. LLMs أدوات، لا بدائل عن الخبرة البشرية.
6. كن شفافًا مع أصحاب المصلحة
إذا كنت تستخدم AI في اختباراتك، أخبر الإدارة والفرق الدفاعية بذلك. الشفافية تبني الثقة وتُحسّن التعلم.
أمثلة على أدوات Red Team المدعومة بالذكاء الاصطناعي
لنُعطي أمثلة ملموسة على ما يُبنى حاليًا:
1. PentestGPT
أداة مفتوحة المصدر تستخدم GPT-4 لتوجيه اختبارات الاختراق. تتفاعل مع المستخدم، تُقدم اقتراحات للخطوات التالية، وتُولد أوامر مخصصة للأدوات المستخدمة (Nmap، Metasploit، إلخ).
2. AutoGPT في سياق الأمن
بعض الفرق تُعدّل AutoGPT ليعمل كـ "هاكر مستقل" — يُعطى هدفًا (مثل "احصل على وصول إلى قاعدة البيانات") ويسعى لتحقيقه باستخدام LLM للتخطيط وتنفيذ الأوامر.
3. أدوات التصيد المدعومة بالذكاء الاصطناعي
منصات مثل GoPhish تُضيف ميزات AI لتولي حملات تصيد ديناميكية تتكيف مع ردود الأهداف.
4. مولدات Exploits المخصصة
سكربتات Python بسيطة تستخدم APIs الخاصة بـ LLMs لتوليد exploits لـ CVEs محددة بناءً على وصف الثغرة فقط.
تطوير أدوات Red Team باستخدام LLMs ليس مجرد تطور تقني — إنه إعادة تعريف لكيفية نفهم الأمن السيبراني. ننتقل من عالم يعتمد على الخبرة البشرية المتراكمة ببطء، إلى عالم يُمكن فيه للذكاء الاصطناعي أن يُسرّع التعلم والتطبيق بشكل كبير.
لكن هذا المستقبل يحتاج لـ حكمة. القوة التي تمنحنا إياها LLMs يجب أن تُستخدم لبناء دفاعات أقوى، تدريب فرق أكثر وعيًا، وحماية بيانات المستخدمين، لا لإحداث فوضى.
Red Team و LLMs معًا يُشكّلان ثنائيًا قويًا. لكن النجاح الحقيقي يكمن في التوازن: الاستفادة من سرعة وذكاء الآلة، مع الحفاظ على الحكم والأخلاقيات البشرية.
إذا كنت محترفًا في مجال الأمن، الوقت قد حان لتجربة هذه الأدوات. ابدأ بمشاريع صغيرة، تعلم من التجارب، وابنِ خبرتك تدريجيًا. المستقبل للذين يُتقنون التعاون بين الإنسان والآلة.
.png)