أي أخلاق للذكاء الاصطناعي؟ حوار مع العالم السوري إياد رهوان

أي أخلاق للذكاء الاصطناعي؟ حوار مع العالم السوري إياد رهوان

إياد رهوان عالم سوري صعد نجمه عالمياً خلال السنوات الماضية، بعد أن أشرف على دراسات أحدثت وقعاً كبيراً وانتشرت انتشاراً واسعاً. محور اهتمامه سلوك الآلة في عصر الذكاء الاصطناعي، وآثار انتشارها في المجتم...

إياد رهوان عالم سوري صعد نجمه عالمياً خلال السنوات الماضية، بعد أن أشرف على دراسات أحدثت وقعاً كبيراً وانتشرت انتشاراً واسعاً.

محور اهتمام رهوان هو سلوك الآلة في عصر الذكاء الاصطناعي، وآثار انتشارها في المجتمعات البشرية كفاعل اجتماعي جديد.

أمضى الجزء الأكبر من طفولته في الإمارات التي يعتبرها بمثابة بلده الثاني، وقد أخذته رحلته مع العلم إلى أستراليا، والولايات المتحدة قبل أن يستقر في ألمانيا حيث أسس مركز الإنسان والآلة في معهد "ماكس بلانك" Max Planck للتنمية البشرية.

حاورت البروفيسور إياد عبر الإنترنت، فتحدث عن سر الطفرة الأخيرة في الذكاء الاصطناعي، وكيف وجدنا أنفسنا أمام آلات تسلك سلوكاً "مبهماً" وتنتج ظواهر "لم نخطط لها حين هندسنا هذه النظم"، كما سألته عن أكثر ما يخيفه من احتمالات تطوّر الذكاء الاصطناعي.

الآلة خائفة من الصورة.

هذا ما يتبدى لنا من ردة فعل "اوبتيلينس ثوتس" OptiLens Thoughts، البرنامج المزود بالذكاء الاصطناعي، على صورة رقائق الكترونية متشظية، تبدو كأنها أجزاء من آلة تفجرت وتبعثرت في كل حدب وصوب.

"هذا العمل الفني الرقمي يصيبني بالاضطراب"، تقول الآلة وتضيف: "كأن بياناتي أنا تتشظى وتنكشف".

التفاعل هذا هو جزء من مشروع يحمل عنوان "روعوا الآلة"، Spook the Machine، وهو يتيح للمشترك ان يستكشف "مخاوف" آلة معينة مزودة بالذكاء الاصطناعي، فيكتب أمرا لتوليد صورة "مخيفة" وتقوم الآلة بتقييمها وتقدم رد فعلها، الذي قد يتراوح بين "اللامبالاة الكاملة والرعب الشديد".

المشروع وليد مخيلة إياد رهوان، وهو عالم سوري ومؤسس ورئيس مركز الإنسان والآلة في معهد ماكس بلانك الألماني.

صحيح ان الموضوع لا يخلو من بعض اللهو، فهو ليس – حتى اللحظة - مبنياً على قناعة بأن الآلة فعلا تشعر كما نشعر.

لكنه أيضاً بمنتهى الجدية، إذ يهدف إلى الغوص عميقاً في جانب من جوانب الذكاء الاصطناعي: قدرته على محاكاة العاطفة البشرية، مع ما تحمله من فرص ومخاطر. وهو يهدف أيضاً الى إشراك عموم الناس في التفكير والتأمل بكل هذا، وإلى جمع البيانات للاستفادة منها في بحث التفاعلات بين البشر والآلة.

"الآلة الأخلاقية"

هي ليست المرة الأولى التي يتوجه فيها رهوان إلى الناس في مشروع تفاعلي من هذا النوع.

قبل سنوات أطلق مشروع "الآلة الأخلاقية" The Moral Machine، طرح من خلاله معضلات أخلاقية قد تواجه آلات الذكاء الاصطناعي التي تجد نفسها أمام خيارات "تعنى بحياة الانسان وسلامته."

تحت خانة "أحكم"، أنتم مدعوون لتحكموا على الخيارات المحتملة أمام سيارة ذاتية القيادة. لنفترض مثلا أن مكابح السيارة قد تعطلت وعلى الآلة التي تقودها أن تختار بين الإرتطام بحاجز إسمنتي وقتل خمسة ركاب، أو الإنحراف وقتل خمسة مشاة يعبرون الطريق بشكل غير قانوني. هذا مجرد مثال وعليه تنويعات وتفصيلات كثيرة، تتيح لكم أنتم أن تقولوا ما هي خياراتكم الأخلاقية المفضلة في كل حالة. بذلك يشرك المشروع الناس في التفكير بهذه المعضلات، وكذلك يتم جمع البيانات حول النظرة الرائجة عن المعايير الأخلاقية التي ينبغي علينا أن نلقنها للآلة.

يقول رهوان: "أصبنا بالصدمة لمدى انتشار الموقع. أكثر من 10 ملايين إنسان قاموا بالمشاركة حتى الآن."

وجاءت المشاركات من مختلف انحاء العالم اذ قُدمت التجربة بعشر لغات (بما فيها العربية) لقياس الفوارق الثقافية وانعكاسها على النظرة الأخلاقية. ويقول رهوان إن علماء الاجتماع أيضا باتوا يستخدمون بيانات المشروع لفهم الاختلافات الثقافية بشكل عام، أي أنه خرج عن نطاق الذكاء الاصطناعي إلى نطاق علمي أوسع.

السيارات ذاتية القيادة مجرد مثال على المجالات الواسعة التي اقتحمتها الآلات في المجتمع لتصبح – كما يقول رهوان – فاعلاً اجتماعياً لا نزال في بداية محاولاتنا لفهمه.

"قوة تأثير هائلة"

ينكب رهوان ومختبره في برلين على رصد أثر الآلات وفعلها في المجتمع، ويقول إنه يقترب من نشر دراسة هي الأهم لمختبره منذ دراسات "الآلة الأخلاقية".

"نحن نعمل على بحث وهو قيد التحكيم الآن في مجلة علمية. وجدنا أن تشات جي بي تي بإمكانه تغيير الكلمات التي ننتقيها في الحوار".

البحث قائم على تحليل مئات الآلاف من حلقات البودكاست الحوارية التي أظهرت أن الناس أصبحوا يقلدون تشات جي بي تي ChatGPT بطريقة انتقائه الكلمات.

فهناك كلمات معينة يستخدمها تشات جي بي تي بمعدلات أكثر من معدلات استخدامها لدى الناس عامة، وقد رصد المختبر طفرة في استخدامها في الحوارات بين البشر بعد صعود تشات جي بي تي. ويقول رهوان: "يمكننا القول إن التفاعل مع تشات جي بي تي هو السبب".

المسألة حتى الآن تقتصر على كلمات ليست لها أهمية سياسية او اجتماعية، لكن رهوان يجزم أن أهمية البحث في اكتشاف دليل على الظاهرة، وأنها حتما ستتكرر في أمور ذات أهمية وتأثير، وقد يكون لها "تداعيات جيوسياسية، ويمكن ان تشن حرباً إعلامية" بمثل هذه التكنولوجيا.

"تشات جي بي تي أصبحت له قوة تأثير ثقافي هائلة. هو يتحدث مع 300 مليون إنسان شهرياً بشكل شخصي حميمي إلى حد ما، حوار شخصي مفصل عليك. يمكنه أن يؤثر عليك، في سلوكك الصحي، في سلوكك الاستهلاكي. لحساب من؟ حالياً، ليس هناك أي تقنين لهذا".

مصممو الآلة لا يفهمونها؟

رهوان يشعر بفجوة كبيرة بين سرعة انتشار الآلة كفاعل اجتماعي في الحيز العام من جهة، وقدرتنا على إحاطتها فهماً من جهة ثانية. حتى أنه يعتقد أن علماء الكومبيوتر والمبرمجين الذين يصممون آلات الذكاء الاصطناعي عاجزون عن فهمها وحدهم ويحتاجون إلى خبراء وعلماء من مجالات أخرى.

انطلاقا من هذا، اشترك مع عدد من العلماء في كتابة مقال في مجلة نايتشر، Nature، يدعو فيه الى تأسيس مبحث جديد، أسماه العلم السلوكي للآلة، يستفيد من اختصاصات متنوعة، ويدرس الآلة من الخارج.

إليكم جزءاً من الحوار مع البروفيسور إياد رهوان بعد اختصاره وتحريره للوضوح:

أولاً، هل يمكن أن تعطينا نبذةً صغيرةً عنك؟

أنا ولدت في حلب في سوريا وذهبت الى الامارات بعمر 4 سنوات. تخرجت في الإمارات ودرست علم الحاسوب في جامعة الإمارات.

ثم هاجرت الى أستراليا وحزت على درجة الدكتوراه هناك في علم الحاسوب، ثم عدت الى الإمارات ودرّست في جامعتين، البريطانية في دبي ومعهد مصدر المرتبط ب إم آي تي، MIT.

ثم ووجدت نفسي بروفيسوراً في إم آي تي وكانت قفزة ممتازة، وقد قدم لي معهد مصدر في أبو ظبي الفرصة أصلاً للذهاب والتعاون مع العلماء في إم آي تي، وهذا ما فتح لي الأبواب، والحمد للّه.

ثم استقدموني إلى هنا في برلين حيث أسست مركز أبحاث هو مركز الإنسان والآلة في معهد ماكس بلانك للتنمية البشرية، وهو معهد موجود منذ السبعينات، وأنا أحد رؤسائه.

ماذا تقصد حين تقول إن الآلة أصبحت "فاعلة" في المجتمع؟

الفاعل هو الشيء الذي يحرك من تلقاء ذاته. فالحاسوب أو "الكومبيوتر" كان جماداً، كالطاولة أو الكرسي. يمكنك أن تستخدمه استخدامات معينة، لكن لا تلقائية له في الحركة والفاعلية. الإنسان يبادر بالفعل، والكومبيوتر يوفر بيانات أو اتصالات. مع الذكاء الاصطناعي، بدأ هو الذي يحرك نفسه، وإن كان الإنسان في النهاية المحرك الأساسي في العلاقة.

الآن تكثر المجالات حيث للكومبيوتر تلقائية واستقلالية. يشتري ويبيع أسهم، مثلاً.

هناك خوارزميات متروكة لنفسها، نحن ننام وهي تستمر في البيع والشراء. لديها فاعلية، استقلالية إلى حدٍ ما، حتى لو كانت وكيلاً لنا، إذ خولناها ان تتصرف بطريقة معينة وتؤدي غرضاً معيناً.

الذكاء الاصطناعي التوليدي نفسه كان في البداية ردة فعل فقط. انا أحكيه وهو يرد. لكننا الآن ندخل في ايجتنتك إيه آي Agentic AI، ما يمكن تسميته الذكاء الاصطناعي ذو الفاعلية. انا أوكل إليه اعمالا معينة، وهو يدفع نفسه لتحقيقها بشكل مستقل. وهذه مسألة تدرج. مع الوقت ستكون له استقلالية أكثر وأكثر.

دعوتم منذ ستة أعوام لتأسيس مبحث جديد، العلم السلوكي للآلة. هل تم ذلك؟

لا أحد يخترع من الصفر، الجميع يبني على ما سبق. فكرة العلم السلوكي للآلة كانت موجودة. هيربيرت سايمون مثلا كتب كتاباً اسمه علوم الأشياء المصطنعة، Sciences of the Artificial، عام 1969.

طرح سايمون فكرة دراسة ليس فقط الظواهر الطبيعية كالشجر والجو والمياه والقوى والظواهر الفيزيائية، بل أيضاً الأشياء التي صنعناها نحن، أن ندرس الجسور والمباني بشكل علمي، كأننا نراها للمرة الأولى. كأنها كانت جزءاً من الطبيعة.

تبلورت الفكرة الى أن أصبحت هناك حاجة أن تكون مجالاً له أسس علمية، وليس فقط فكرة يتحدث عنها البعض.

علينا أن نتفق ما هي الأسئلة الأساسية التي يجب أن نجيب عنها في هذا المجال، لهذا دعوت مجموعة من العلماء من مختلف المجالات، اقتصاد، علوم سياسية، علم النفس، علم الاعصاب، وعلم الكومبيوتر طبعاً، وعلم الإنسان.

قلت: "يا جماعة العلم هذا ليس فقط فرع من فروع علم الكومبيوتر، بل يجب أن يكون علماً أكبر من علم الكومبيوتر وأن يشمل كل العلوم السلوكية لتساعدنا على فهم سلوك الآلة وتعامل الآلة مع الإنسان".

بماذا يهتم العلم السلوكي للآلة تحديداً؟

عند محاولة فهم سلوك الآلة، يمكننا التعامل معها كما نتعامل مع كائن حي كالفأر، ندرس تصرفاتها ونلاحظ ردود أفعالها في بيئة معينة.

حين تضع فأراً في متاهة، أنت تدرسه بشكل منعزل. لكن بمجرد أن تضعه في بيئة طبيعية، سيتفاعل مع حيوانات أخرى، مع فريسته والمفترس، فيصبح الموضوع أكثر تعقيداً.

نفس الشيء بالنسبة للآلة: يمكن لنا أن ندرس سلوك الالة بشكل منعزل، ونحن نفعل ذلك، في مختبري وفي أماكن أخرى. مثلاً، نحاول أن نفهم تشات جي بي تي: ما هي شخصيته، كيف يتكلم، ما هي أفكاره السياسية، لو وضعته في موقع التفاوض، هل يفاوض بأريحية أم لا، هل هو صارم أو مرن؟

يمكننا دراسة ذلك على الكومبيوتر من خلال المحاكاة، لكن في النهاية ستتفاعل الآلة مع البشر - مع أطفال، مع أطباء، وستقدّم نصائح أو اقتراحات - لذلك، لا يمكن فصل دراستها عن الإنسان، بل يجب فهم سلوكها ضمن سياق تفاعلها مع السلوك البشري.

أصبحت الآلة الآن جزءاً من المجتمع، ويجب ان نفهم سلوكها وسلوكها يعتمد على سلوك الانسان وتفاعل الإنسان معها. وبالتالي، نحتاج إلى نظرة شمولية لهذا السلوك.

كيف يمكن لمن صمم آلة ما أن يعجز عن فهم سلوكها؟

نحن نفكر بالآلة كما نفكر بالتكنولوجيا القديمة، كالغسالة مثلاً: هي عبارة عن نظام له مهمة محددة ودور محدد، وهو دور واضح.

هناك طريقة للتفاعل معها، تضغط زراً، تحدث الأمور، والمهندس الذي صمم الآلة يفهمها تماماً وعليه فقط أن يوصل هذا الفهم للمستخدم الذي لا يفهمها.

لكننا الان أمام آلة تتعلم تلقائياً، تتعلم من البيانات بشكل مباشر. الطفرة التكنولوجية التي حصلت في الذكاء الاصطناعي نتجت عن هذا المفهوم.

فبدلاً من الطريقة التي اعتُمدت لعقود، حيث يقوم المبرمج بإعطاء الآلة كل المفاهيم والقواعد السلوكية، تَوصّل العلماء إلى أن الأفضل هو تزويد الآلة ببيانات عن العالم، وتركها تتعلم بنفسها.

قدرة الآلة على التعلُّم الذاتي تُمكّنها من معرفة أمور لم نخبرها إياها. وقد تتصرف بطرق تفاجئنا وتصبح سلوكياتها غير قابلة للتنبؤ بالكامل.

ما هي خلاصة اكتشافاتكم من مشروع "الآلة الأخلاقية"؟

الاكتشاف الأساسي هو الاختلافات الثقافية حول ما نتوقع من الآلة، وما هي الأخلاق التي نتمنى أن نراها في الآلة. الآراء تختلف من ثقافة الى ثقافة وبالتالي بناء الذكاء الاصطناعي يجب أن يأخذ الاختلافات الثقافية بعين الاعتبار. لا يمكن بناء سيارة تحترم قانون أو عرف بلد معين ثم تصديرها إلى بلد ثاني حيث يمكن أن تصطدم مع الأعراف المحلية.

أعتقد أننا اول من وجد هذه الفروقات بشكل واضح وكبير من خلال الآلة الأخلاقية وهناك اختلاف على مستوى العالم بالكامل لأننا حللنا تقريبا كل الدول في العالم.

وفي بعض الحالات الرأي العام قد لا يكون الأكثر صوابا. مثلا أحيانا يقول الرأي العام إن على السيارة ذاتية القيادة أن تفضل إنقاذ رجل الاعمال على إنقاذ رجل مشرد. نحن نرى أن هذا ضد كرامة الإنسان. نحتاج أن تُسن قوانين تأخذ كل هذا بعين الاعتبار: متى نأخذ الاختلافات الثقافية بعين الاعتبار، متى نأخذ الرأي العام بعين الاعتبار ومتى نتجاهل الرأي العام. نحن نضع كل ذلك موضع نقاش.

وبالنسبة إلي، السيارات ذاتية القيادة ليست أهم مجال تظهر فيه الخلافات الثقافية. قد تكون الاختلافات أكبر في مجال ألعاب الأطفال.

الذكاء الاصطناعي وألعاب الأطفال

الذكاء الاصطناعي حتما سينتشر في الألعاب. العاب الاطفال كـ"الباربي" Barbie، وما يشبهها، كلها سوف تتحدث إلى الأطفال قريباً. ما هي المعايير السلوكية المتماشية مع المعايير الثقافية لتعامل هذا الذكاء الاصطناعي للتعامل مع اطفالي بشكل يناسبني ويناسب ثقافتي؟ من الذي يقرر أنها آمنة، مثلاً، وأنها لن تشجع الطفل على التهور؟

كل هذه المعايير غير موجودة حالياً، ليس لدينا منظومة علمية متكاملة قادرة على إعطائنا كل هذه المعايير.

ما العوائق القانونية التي تواجه من يريد دراسة وفهم الذكاء الاصطناعي والخوارزميات؟

العائق القانوني يتكون من شقّين: الملكية الفكرية التي تمنعني من الحصول على الخوارزمية لأنها محمية ومخبأة في الشركة، حتى أن الموظف لا يمكنه أن يأخذها معه إذا ترك الشركة. والآخر هو أنه ليس بإمكاني حتى أن أخترق أو "أهكّر" الموقع، لفهم سلوك الآلة، لأنهم سيرفعون علي قضية.

أنا لدي طالب سابق عمل لمدة سنتين على بحث مع إحدى شركات التواصل الإجتماعي، لكن الشركة في النهاية قالت له ممنوع نشر البحث لأن النتائج تضر بنا مالياً. كل العمل ذهب إلى القمامة، والرجل ترك العلم بالكامل ولجأ إلى مجال آخر، مختلف كلياً.

ثم، إذا أردتُ ان أدرس كيف تعمل خوارزميات تحديد الأسعار، علي أن أقوم بمحاكاة زبائن مختلفين. لكن بما أني لست زبونا حقيقيا يمكن لهذه الشركة أن تقول إن هذا بمثابة هاكينغ. وفعليا تم رفع قضايا ضد علماء كانوا يريدون فهم مثل هذه الخوارزميات، وكيف تعمل، تحت قوانين الهاكينغ والأمن السيبراني.

المنظور السلوكي لفهم الآلة يحل بعض هذه المشاكل إذ يمكنني أن افهم الكثير عن خواص وسلوكيات الخوارزمية دون أن يكون لدي وصول للبرنامج نفسه.

أما قانونيا، فالحل أن نفرق بين من يحاول فهم سلوك الالة لأغراض علمية، ومن يقوم بهذه الأمور ليتحايل عليها أو يسرق أو ينشر بيانات كاذبة أو معلومات خاطئة. يجب أن يميز القانون، وألا يتم تجريم العمل العلمي في هذا المجال، على الأقل.

ويمكننا ان نذهب ابعد من ذلك: يمكننا ان نفرض على شركات أن تسهل العمل العلمي لدراسة الخوارزميات التي تشغلها، كي لا يكون للشركة حق الفيتو على ما يمكن نشره. وإلا سيبقى كثير من الأسئلة في الصالح العام التي لا يمكننا ان نجيب عنها علمياً، بسبب أن القانون يمنعنا أو لا يعطينا الحق بذلك.

ما هي أكثر السيناريوهات التي تخيفك في تطور الذكاء الاصطناعي؟

هناك العديد من سيناريوهات الخيال العلمي التي تتحدث عن فقدان السيطرة على الآلة، كما في أفلام مثل تيرمينايتور . لكني أشعر أنها لا تزال خيالية وبعيدة عن الواقع في الوقت الحالي.

أما ما يخيفني أكثر فهو أن يكون الذكاء الاصطناعي منحصرا في أيدي أشخاص معينين دون غيرهم وأن يؤدي ذلك إلى خلل كبير في توازن القوى في العالم. هذا يخيفني أكثر. بمعنى أن يكون لدول تفوق كبير في الذكاء الاصطناعي، على حساب دول أخرى، ما سيحدث عدم توازن - اقتصاديا وعسكريا وثقافيا - بتداعيات مخيفة. أتمني أن يكون الذكاء الاصطناعي متوفرا للجميع، كي نتنافس بشكل إيجابي بكل المجالات وأن تكون لنا نفس الأدوات.

هل تعتقد أن الدول والمجتمعات العربية ستلحق بركب موجة الذكاء الاصطناعي؟

أكيد، سوف نلحق الموجة. لدينا إمكانيات بشرية. لدينا علماء أقوياء داخل وخارج العالم العربي. فنحن لا نقلّ عن أي شعب آخر من حيث الإمكانيات البشرية. وهناك استثمار قوي في عدة دول عربية في مجال الذكاء الاصطناعي. كما أن هناك مسألة مهمة، وهي أن الطفرات التي تحصل في الذكاء الاصطناعي سريعة جداً وهناك انفتاح في توفير نماذج الذكاء الاصطناعي.

نموذج ذكاء اصطناعي قد يكون كلف 500 مليون دولار لتدريبه، يمكن لأي شخص تنزيله والحصول عليله جاهزاً واستخدامه. هذا يعني أنه بإمكاننا أن نُحدِث طفرة في هذا المجال. وعدم وجود الاستقلالية التامة في هذا المجال ليست مشكلة، فحتى الدول المتقدمة ليست مستقلةً بشكل كامل.

المهم إذا إن نقدم ولا نخاف. لدينا الإمكانية ونحتاج فقط الشجاعة. وموجودة إن شاء الله.

الجو الرطب والبارد في عيد الفصح: هنا ستكون الأمور أسوأ

الجو الرطب والبارد في عيد الفصح: هنا ستكون الأمور أسوأ

يتناول المقال التنبؤات الجوية لعطلة عيد الفصح في الدنمارك. ويشير إلى أن يوم السبت سيكون رماديًا وممطرًا عبر البلاد، مع درجات حرارة تتراوح بين 10-12 درجة مئوية. ومن المتوقع حدوث أسوأ طقس في شمال جوتلاند بكميات تصل إلى 20 ملم من الأمطار وزيادة الرياح. ومع ذلك، يشير إلى أن يوم الأحد سيكون أفضل قليلاً مع بعض التحسن في فترة ما بعد الظهر، مما يتيح القيام بأنشطة في الهواء الطلق مع درجات حرارة تتراوح بين 10-14 درجة مئوية. ويقترح المتنبئ الجوي، ترين بيدرسن، أن يوم الأحد سيشهد تحسنا مقارنة بالسبت.

دعمَ غزة فاتهموه بالإرهاب.. تضامن واسع مع المفكر الفرنسي بورغا

دعمَ غزة فاتهموه بالإرهاب.. تضامن واسع مع المفكر الفرنسي بورغا

يرى ناشطون وحقوقيون أن محاكمة المفكر الفرنسي فرانسوا بورغا بتهمة "الدفاع عن الإرهاب" تمثل انحرافا خطيرا في حرية التعبير بفرنسا، مطالبين بالتوقف عن تجريم التضامن مع فلسطين.

باريس- في محاولة لقمع حرية التعبير وإسكات الأصوات الداعمة للقضية الفلسطينية، سيمثل المفكر والخبير الفرنسي في الإسلام السياسي فرانسوا بورغا أمام المحكمة الجنائية في مدينة آكس أون بروفانس، جنوب شرق فرنسا، يوم 24 أبريل/نيسان بتهمة "الدفاع عن الإرهاب".

ومنذ يناير/كانون الثاني 2024، تلقى بورغا سيلا من الانتقادات ومطالبات بفرض عقوبات عليه، بسبب إعادة نشره بيانا صحفيا لحركة حماس عبر منصة إكس، علق عليها قائلا "إنني أكنّ احتراما وتقديرا لقادة حماس أكثر من قادة إسرائيل".

وبالفعل، اعتقلت الشرطة الفرنسية عالم السياسة المعروف في يوليو/تموز الماضي لـ7 ساعات قبل أن يتم إطلاق سراحه، بعد شكوى تقدمت بها المنظمة اليهودية الأوروبية بسبب التغريدة ذاتها التي أعاد نشرها.

تجريم الرأي

وعند سؤال فرانسوا بورغا عن رأيه في الاتهام الموجه إليه، أجاب "لقد لخصَت نكتة أحد الأصدقاء أفكاري، قال فيها: في هذه الأيام، إذا لم يتم اتهامك بتأييد الإرهاب، فإنك أهدرت حياتك!".

وفي حديثه للجزيرة نت، أضاف المفكر الفرنسي "لا أستطيع التقليل من حجم العواقب الأخلاقية والمادية لمثل هذا الاتهام عليّ وعلى أحبائي، ولكن، من دون أي خوف من الاستفزاز، أود أن أقول لكم من أعماق قلبي، أنني أفضل أن أكون في مكاني هذا بدلا من مكان من يتهمونني".

وجدير بالذكر أن شخصيات أخرى بارزة في فرنسا اتُهمت بالأمر ذاته، مثل زعيمة اليسار الفرنسي ماتيلد بانو، والنائبة الفلسطينية في البرلمان الأوروبي ريما حسن.

وفي هذا الإطار، أعربت رئيسة منظمة "أوروـ فلسطين" أوليفيا زيمور عن غضبها الشديد بالقول إن "ما حدث مع بورغا مثير للصدمة، ووسيلة لتشجيع الإبادة الجماعية في غزة، لدينا الحق في دعم مقاومة الفلسطينيين، وإسرائيل -على عكس ما يقوله زعماؤنا- ليس لديها الحق في الدفاع عن نفسها، وحتى على مستوى القانون الدولي، فإن المقاومة المسلحة مشروعة".

وأشارت زيمور -في حديثها للجزيرة نت- إلى أن الحكومة الفرنسية لا تدين الإبادة الجماعية، أو الـ3250 جنديا فرنسيا الذين يرتكبون جرائم ضد الإنسانية داخل الجيش الإسرائيلي، لكنها تلاحق الأشخاص الذين يظهرون دعمهم للمقاومة أو للشعب الفلسطيني، "لأنه يكفي أن نقول مقاومة أو كلمة فلسطين في فرنسا، حتى يتم قمعنا بشكل مباشر".

ومن ناحية أخرى، أعرب بورغا، وهو مدير الأبحاث السابق في المركز الوطني الفرنسي للبحث العلمي، ومؤلف أعمال مرجعية حول قضايا تتعلق بالعالم الإسلامي، عن استنكاره للصمت شبه الكامل -حتى الآن- من جانب المؤسسات الجامعية والبحثية، معتبرا أن ذلك إشارة سيئة للغاية في هذا التوقيت.

انحراف خطير

وتأتي هذه الدعوى القضائية في أعقاب شكوى رفعتها المنظمة اليهودية الأوروبية، وهي جمعية فرنسية تحارب الأصوات التي تنتقد السياسات المتطرفة للحكومة الإسرائيلية، تحت ستار "مكافحة معاداة السامية ومعاداة الصهيونية، وملاحقة حركة المقاطعة وسحب الاستثمارات وفرض العقوبات على إسرائيل".

وفي بيان مشترك، أعلنت عدة منظمات حقوقية تضامنها الكامل مع الأكاديمي والباحث الفرنسي، منددة بما وصفته بـ"الاضطهاد القضائي" البعيد عن التزامات الحكومة الفرنسية في مجال حقوق الإنسان، وفقا للقانون الدولي.

وفي هذا السياق، يرى مدير قسم الشرق الأوسط وشمال أفريقيا في منظمة "أفدي" الدولية عبد المجيد مراري أن "الدولة الفرنسية ترتكب خطأ في اعتبارها أن أي تضامن مع الفلسطينيين هو تضامن مع الإرهاب ومع أحداث طوفان الأقصى، وهو ما جعل بورغا يدفع ضريبة مواقفه الرافضة لجرائم الإبادة الجماعية" على حد تعبيره.

كما وصف الخبير في القانون الدولي مراري -في حديثه للجزيرة نت- هذه القضية بـ"الانحراف الخطير" عن قيم ومبادئ الجمهورية الفرنسية الخامسة.

وقال المتحدث "بوصفنا منظمات حقوقية، ينبغي أن نقف إلى جانب جميع ضحايا حرية الرأي والتعبير، وبوصفنا قانونيين، سنساند الدكتور بورغا بعدد من الزملاء المحامين من عدة هيئات أوروبية، الذين عبروا عن استعدادهم لحضور الجلسة القادمة والدفاع عنه".

ويعتقد مراري أن المفكر الفرنسي توبع بسبب التصريح المتعلق بالمقاومة، وبسبب مواقفه الداعمة لأهالي قطاع غزة أيضا، مفسّرا ذلك بالقول "نحن ذاهبون في فرنسا إلى تجريم التضامن مع فلسطين، وهو ما تم التلويح به والمطالبة به بعد السابع من أكتوبر/تشرين الأول 2023".

محرك سياسي

من جهته، وصف فرانسوا بورغا الاتهام الموجه إليه بـ"الميدالية الحقيقية"، معتبرا أنه للوصول إلى جوهر مشكلة النخب السياسية في فرنسا اليوم، يكفي معرفة أن الجنرال شارل ديغول كان سيكون عرضة للإدانة بتهمة "الدفاع عن الإرهاب" من قبل القضاء الفرنسي، بسبب تصريحاته التي أدلى بها في عام 1967 حول الارتباط بين الاحتلال الإسرائيلي غير الشرعي والقمع والمقاومة المشروعة واتهام المحتلين بـ"الإرهاب".

وفي تحليل آخر، قالت الناشطة اليهودية الفرنسية أوليفيا زيمور "عند تنفيذ المقاومة الفرنسية هجمات ضد المحتل خلال الحرب العالمية الثانية، كان الجيش الألماني يأخذ الرهائن المدنيين بشكل عشوائي ويقوم بإعدامهم، فهل يعني ذلك أن المقاومة الفرنسية إرهابية، طبعا لا! واليوم، نحن بحاجة إلى وضع الأمور في نصابها الصحيح في ما يتعلق بالمقاومة الفلسطينية".

وأضافت زيمور، التي تُعَد أيقونة المظاهرات الداعمة لفلسطين في فرنسا، "سنتوقف عن تأييد حركة حماس في مقاومتها عندما يتوقف الدعم للإرهاب الإسرائيلي، ويتم تسليط الضوء على المجازر وحرق الناس أحياء واختطاف الصحفيين والأطباء وتدمير المستشفيات وترك الناس يُقتلون جوعا وعطشا، وهي أمور تتوافق مع الأساليب النازية".

وعن توقعاته لمحاكمة 24 أبريل/نيسان الجاري، أوضح بورغا أنه ليس متفائلا بشكل مفرط "أعلم أن ملفي فارغ وأن الادعاء تجاوز خطا أحمر عندما وصف مقتطفات من أحد كتبي -الذي نشر بعدة لغات قبل نحو 10 سنوات- بأنه رثاء طويل لحماس".

وتابع المستشرق والعالم السياسي "أعلم أيضا أنه -لسوء الحظ- صدرت أحكام قاسية على مواطنين فرنسيين آخرين، كان ذنبهم الوحيد هو أنهم يعتنقون العقيدة الإسلامية، على أساس ملفات فارغة مثل ملفي".

وأكد بورغا أنه ليس من المهم الدفاع عنه شخصيا، بل عن "حريتنا في التعبير، وحقنا في المناقشة، وحقنا في انتقاد نهج حكوماتنا، إنها معركة مقدسة، وأنا فخور بأنني لست وحدي في محاربتها".

أحكام بالسجن تصل إلى 66 عاما في "قضية التآمر" بتونس

أحكام بالسجن تصل إلى 66 عاما في "قضية التآمر" بتونس

أصدرت محكمة تونسية أحكاما بالسجن تتراوح بين 13 و66 عاما على زعماء من المعارضة ورجال أعمال ومحامين، يتابعون ضمن ما يعرف بـ"قضية التآمر".

أصدرت محكمة تونسية أحكاما بالسجن تتراوح بين 13 و66 عاما على زعماء من المعارضة ورجال أعمال ومحامين، يتابعون ضمن ما يعرف بـ"قضية التآمر".

الأطباء يحذرون: يريدون إزالة بخاخ الأنف من المتاجر

يدعو أطباء الأنف والأذن والحنجرة الدانماركيون إلى إزالة رذاذات الأنف مثل أوتريفين وزيميلين من متاجر البقالة والسوبرماركتات بسبب مخاوف من احتمالية الإدمان نتيجة للاستخدام المفرط. اقترحت جمعية أطباء الأنف الدانماركية، التي تمثل أخصائيي الأنف، على هيئة الأدوية الدنماركية تقييد بيع رذاذات الأنف إلى الصيدليات. وأكدت الهيئة أنها ستقوم بمزيد من التحقيق في الموضوع استجابة لهذه المخاوف.