هل يقتل الذكاء الصناعي إبداع الباحثين؟
هل يقتل الذكاء الصناعي إبداع الباحثين؟
«تشات جي بي تي» يشارك في كتابة الأبحاث العلمية
حازم بدر
من المعتاد أن يجد المهتمون بمتابعة الأبحاث العلمية قائمة بأسماء الباحثين المشاركين في الأبحاث، ووسائل تواصل خاصة بهم، لكن كانت المفاجأة التي أحدثت دوياً في الأوساط البحثية، أن إحدى الباحثات كتبت مقالة افتتاحية في إحدى الدوريات العلمية المتخصصة، وكان الباحث المشارك معها، هو برنامج الذكاء الصناعي «تشات جي بي تي».
نصوص ذكية
ويُنشئ «تشات جي بي تي» chatGPT نصاً واقعياً وذكياً استجابة لطلب المستخدم، وذلك عن طريق الشبكات العصبية التي تتعلم أداء مهمة عن طريق هضم كميات هائلة من النصوص الموجودة التي تم إنشاؤها بواسطة الإنسان، وأصدرت شركة البرمجيات «أوبن إيه آي»، ومقرها سان فرنسيسكو بأميركا، الأداة في 30 نوفمبر (تشرين الثاني)، وهي مجانية الاستخدام.
ومنذ صدور تلك الأداة، كان الباحثون يتصارعون حول القضايا الأخلاقية المحيطة باستخدامها؛ لأنه قد يكون من الصعب تمييز الكثير من مخرجاتها عن النص المكتوب من قِبل الإنسان، حتى جاءت الباحثة سيوبان أوكونور، من قسم التمريض والقبالة والخدمة الاجتماعية بكلية العلوم الصحية بجامعة مانشستر البريطانية، لتفاجئ الجميع بتحويل تلك الأداة إلى باحث مشارك في مقالتها البحثية المنشورة في عدد يناير (كانون الثاني) من دورية «نيرس إيدوكيشن إن براكتس»، تحت عنوان «فتح منصات ذكاء صناعي في تعليم التمريض: أدوات للتقدم الأكاديمي أم إساءة؟».
وبينما يرفض كثيرون تلك الخطوة من منطلق «مسؤولية المؤلف»؛ لأن تلك الأداة لا تستطيع تحمّل المسؤولية عن محتوى الأوراق العلمية وسلامتها، يرى آخرون أنها أصبحت واقعاً، ومن الأفضل تقنينها بدلاً من منعها.
وتميل الباحثة سيوبان أوكونور، صاحبة أول مقال بحثي مشترك مع تلك الأداة، إلى خيار التقنين، معتبرة في تصريحات لـ«الشرق الأوسط»، أن «الخطوة التي أقدمت عليها، أفضل بكثير من أن يحمل المقال اسمها بمفردها، بينما يكون لتلك الأداة دور كبير في كتابته».
وتقول: «على حد علمي كانت مقالتي هي أول مقالة منشورة في مجلة علمية لاستخدام (تشات جي بي تي) كمؤلف مشارك، ولكن هناك البعض الآخر على مواقع ما قبل طباعة الأبحاث تخضع لمراجعة الأقران في المجلات».
كان تعليق أوكونور لـ«الشرق الأوسط»، قبل صدور تصريحات مؤخراً لروجر واتسون، رئيس تحرير المجلة التي نشرت هذا المقال، والذي اعتذر فيه عن كتابة اسم «تشات جي بي تي» ضمن المؤلفين المشاركين بالدراسة. وقال في تصريحات لموقع «نيتشر»، إن كتابة اسم البرنامج ضمن قائمة المؤلفين مرّ عن طريق الخطأ وسيتم تصحيحه قريباً، وكان ذلك سهواً من جانبه؛ لأن المقالات الافتتاحية تمر بنظام إدارة مختلف عن الأوراق البحثية، ولكن لم يحدث حتى الآن ما وصفه واتسون بـ«الخطأ».
ربما يعكس هذا التصحيح الذي يعتزم رئيس التحرير تنفيذه، اتجاهاً يفضله البعض، وهو الاعتراف بمساهمة الذكاء الصناعي في كتابة الأوراق، على أن تتم كتابة ذلك في قائمة المراجع، وليس في قائمة المؤلفين، لكن ذلك -كما يرى طارق قابيل، الأستاذ في كلية العلوم بجامعة القاهرة- نوع من «التقنين الشرعي للفبركة».
يقول لـ«الشرق الأوسط»: «أثناء كتابة البحث العلمي غير مسموح لك باقتباسات كاملة من المراجع، وهناك نسبة مسموح بها للاقتباس، وتوجد برامج تكتشف ذلك، لكننا أمام أداة لا تقتبس، بل تكتب كما يكتب البشر».
برنامج «أصيل»
وتؤكد تجربة قام بها عدد من الباحثين من جامعة نورثوستيرن الأميركية، ما ذهب إليه قابيل، حيث طلبوا من البرنامج كتابة 50 ملخصاً بحثياً في مجال الطب، وكانت جميعها خالية من الاقتباس ومُقنعة جداً لدرجة أن 32 في المائة منها تم تصنيفها من قِبل المُراجعين على أنها أبحاث أصلية.
وفي تجربة أخرى، أجراها جوناثان تشوي، الأستاذ في كلية الحقوق بجامعة مينيسوتا الأميركية، خاض البرنامج الاختبار نفسه الذي أعدّه لطلابه، والذي يتكون من 95 سؤالاً متعدد الخيارات و12 سؤالاً مقالياً، وكانت الإجابات نموذجية.
والبرنامج بهذه الكيفية، يصفه قابيل، بأنه مثير للقلق؛ لأنه قد يكون أداة لإصدار أبحاث لا أساس لها من الصحة، والخطوة الأكبر عندما تكون هذه الأبحاث عن أدوية أو أمراض تصيب البشر.
وفي رأي قابيل، لا يوجد حل يبدو في الأفق لتجنب «الفبركة» بواسطة هذه الأداة؛ ذلك لأن الأدوات القائمة على الذكاء الصناعي تتطور يوماً بعد الآخر وتتعلم من أخطائها، والحل الوحيد هو أن يتم إنتاج برنامج أذكى منها، قادر على اكتشاف الأبحاث التي اعتمدت بشكل «غير علمي» على البرنامج.
وإلى أن يحدث ما يتمناه قابيل، يخشى رمزي عبد العزيز، الباحث في علوم وتكنولوجيا النانو بجامعة «آلتو» الفنلندية، من إسراف الباحثين في استخدام هذا البرنامج، قائلاً في تعليق كتبه على صفحته بموقع «فيسبوك»: «نصيحتي لكل الباحثين أن يكون استخدامكم للبرنامج قاصراً فقط على جمع المعلومات في وقت قياسي، لكن من الخطورة الاعتماد على لغته؛ لأنكم بذلك ستقتلون ملكات الإبداع والتعبير والتأليف تدريجياً».
واقترح عبد العزيز وسيلة لكشف فبركة الأبحاث باستخدامه، قائلاً: «البرنامج من المؤكد أنه يفتقد إلى التمييز والتنوع، بمعنى أنه لو افترضنا أن 50 شخصاً سألوا السؤال نفسه، فسوف يحصلون على الإجابة نفسها، وبالتالي يمكن أن تكون تلك الطريقة مناسبة لكشف الأبحاث التي اعتمدت عليه في الكتابة».
ولكن محمد جمعة -وهو أستاذ مساعد في علم العقاقير بجامعة لينكولن ميموريال الأميركية- علّق على اقتراح عبد العزيز، موضحاً أن ما ذهب إليه يجتنبه الصواب؛ لأن البرنامج لا يعطي الإجابة نفسها في كل مرة.
وإزاء هذا التوضيح، لا يوجد حل سوى انتظار أداة أذكى من «شات جي بي تي»، أو الاعتراف به كمؤلف مشارك في الدراسة، فقد «يكون ذلك أفضل بكثير من أن يحمل المقال اسم الباحث بمفرده، بينما يكون لتلك الأداة دور كبير في كتابته»، كما قالت سيوبان أوكونور في تصريحاتها لـ«الشرق الأوسط».
الشرق الأوسط
«تشات جي بي تي» يشارك في كتابة الأبحاث العلمية
حازم بدر
من المعتاد أن يجد المهتمون بمتابعة الأبحاث العلمية قائمة بأسماء الباحثين المشاركين في الأبحاث، ووسائل تواصل خاصة بهم، لكن كانت المفاجأة التي أحدثت دوياً في الأوساط البحثية، أن إحدى الباحثات كتبت مقالة افتتاحية في إحدى الدوريات العلمية المتخصصة، وكان الباحث المشارك معها، هو برنامج الذكاء الصناعي «تشات جي بي تي».
نصوص ذكية
ويُنشئ «تشات جي بي تي» chatGPT نصاً واقعياً وذكياً استجابة لطلب المستخدم، وذلك عن طريق الشبكات العصبية التي تتعلم أداء مهمة عن طريق هضم كميات هائلة من النصوص الموجودة التي تم إنشاؤها بواسطة الإنسان، وأصدرت شركة البرمجيات «أوبن إيه آي»، ومقرها سان فرنسيسكو بأميركا، الأداة في 30 نوفمبر (تشرين الثاني)، وهي مجانية الاستخدام.
ومنذ صدور تلك الأداة، كان الباحثون يتصارعون حول القضايا الأخلاقية المحيطة باستخدامها؛ لأنه قد يكون من الصعب تمييز الكثير من مخرجاتها عن النص المكتوب من قِبل الإنسان، حتى جاءت الباحثة سيوبان أوكونور، من قسم التمريض والقبالة والخدمة الاجتماعية بكلية العلوم الصحية بجامعة مانشستر البريطانية، لتفاجئ الجميع بتحويل تلك الأداة إلى باحث مشارك في مقالتها البحثية المنشورة في عدد يناير (كانون الثاني) من دورية «نيرس إيدوكيشن إن براكتس»، تحت عنوان «فتح منصات ذكاء صناعي في تعليم التمريض: أدوات للتقدم الأكاديمي أم إساءة؟».
وبينما يرفض كثيرون تلك الخطوة من منطلق «مسؤولية المؤلف»؛ لأن تلك الأداة لا تستطيع تحمّل المسؤولية عن محتوى الأوراق العلمية وسلامتها، يرى آخرون أنها أصبحت واقعاً، ومن الأفضل تقنينها بدلاً من منعها.
وتميل الباحثة سيوبان أوكونور، صاحبة أول مقال بحثي مشترك مع تلك الأداة، إلى خيار التقنين، معتبرة في تصريحات لـ«الشرق الأوسط»، أن «الخطوة التي أقدمت عليها، أفضل بكثير من أن يحمل المقال اسمها بمفردها، بينما يكون لتلك الأداة دور كبير في كتابته».
وتقول: «على حد علمي كانت مقالتي هي أول مقالة منشورة في مجلة علمية لاستخدام (تشات جي بي تي) كمؤلف مشارك، ولكن هناك البعض الآخر على مواقع ما قبل طباعة الأبحاث تخضع لمراجعة الأقران في المجلات».
كان تعليق أوكونور لـ«الشرق الأوسط»، قبل صدور تصريحات مؤخراً لروجر واتسون، رئيس تحرير المجلة التي نشرت هذا المقال، والذي اعتذر فيه عن كتابة اسم «تشات جي بي تي» ضمن المؤلفين المشاركين بالدراسة. وقال في تصريحات لموقع «نيتشر»، إن كتابة اسم البرنامج ضمن قائمة المؤلفين مرّ عن طريق الخطأ وسيتم تصحيحه قريباً، وكان ذلك سهواً من جانبه؛ لأن المقالات الافتتاحية تمر بنظام إدارة مختلف عن الأوراق البحثية، ولكن لم يحدث حتى الآن ما وصفه واتسون بـ«الخطأ».
ربما يعكس هذا التصحيح الذي يعتزم رئيس التحرير تنفيذه، اتجاهاً يفضله البعض، وهو الاعتراف بمساهمة الذكاء الصناعي في كتابة الأوراق، على أن تتم كتابة ذلك في قائمة المراجع، وليس في قائمة المؤلفين، لكن ذلك -كما يرى طارق قابيل، الأستاذ في كلية العلوم بجامعة القاهرة- نوع من «التقنين الشرعي للفبركة».
يقول لـ«الشرق الأوسط»: «أثناء كتابة البحث العلمي غير مسموح لك باقتباسات كاملة من المراجع، وهناك نسبة مسموح بها للاقتباس، وتوجد برامج تكتشف ذلك، لكننا أمام أداة لا تقتبس، بل تكتب كما يكتب البشر».
برنامج «أصيل»
وتؤكد تجربة قام بها عدد من الباحثين من جامعة نورثوستيرن الأميركية، ما ذهب إليه قابيل، حيث طلبوا من البرنامج كتابة 50 ملخصاً بحثياً في مجال الطب، وكانت جميعها خالية من الاقتباس ومُقنعة جداً لدرجة أن 32 في المائة منها تم تصنيفها من قِبل المُراجعين على أنها أبحاث أصلية.
وفي تجربة أخرى، أجراها جوناثان تشوي، الأستاذ في كلية الحقوق بجامعة مينيسوتا الأميركية، خاض البرنامج الاختبار نفسه الذي أعدّه لطلابه، والذي يتكون من 95 سؤالاً متعدد الخيارات و12 سؤالاً مقالياً، وكانت الإجابات نموذجية.
والبرنامج بهذه الكيفية، يصفه قابيل، بأنه مثير للقلق؛ لأنه قد يكون أداة لإصدار أبحاث لا أساس لها من الصحة، والخطوة الأكبر عندما تكون هذه الأبحاث عن أدوية أو أمراض تصيب البشر.
وفي رأي قابيل، لا يوجد حل يبدو في الأفق لتجنب «الفبركة» بواسطة هذه الأداة؛ ذلك لأن الأدوات القائمة على الذكاء الصناعي تتطور يوماً بعد الآخر وتتعلم من أخطائها، والحل الوحيد هو أن يتم إنتاج برنامج أذكى منها، قادر على اكتشاف الأبحاث التي اعتمدت بشكل «غير علمي» على البرنامج.
وإلى أن يحدث ما يتمناه قابيل، يخشى رمزي عبد العزيز، الباحث في علوم وتكنولوجيا النانو بجامعة «آلتو» الفنلندية، من إسراف الباحثين في استخدام هذا البرنامج، قائلاً في تعليق كتبه على صفحته بموقع «فيسبوك»: «نصيحتي لكل الباحثين أن يكون استخدامكم للبرنامج قاصراً فقط على جمع المعلومات في وقت قياسي، لكن من الخطورة الاعتماد على لغته؛ لأنكم بذلك ستقتلون ملكات الإبداع والتعبير والتأليف تدريجياً».
واقترح عبد العزيز وسيلة لكشف فبركة الأبحاث باستخدامه، قائلاً: «البرنامج من المؤكد أنه يفتقد إلى التمييز والتنوع، بمعنى أنه لو افترضنا أن 50 شخصاً سألوا السؤال نفسه، فسوف يحصلون على الإجابة نفسها، وبالتالي يمكن أن تكون تلك الطريقة مناسبة لكشف الأبحاث التي اعتمدت عليه في الكتابة».
ولكن محمد جمعة -وهو أستاذ مساعد في علم العقاقير بجامعة لينكولن ميموريال الأميركية- علّق على اقتراح عبد العزيز، موضحاً أن ما ذهب إليه يجتنبه الصواب؛ لأن البرنامج لا يعطي الإجابة نفسها في كل مرة.
وإزاء هذا التوضيح، لا يوجد حل سوى انتظار أداة أذكى من «شات جي بي تي»، أو الاعتراف به كمؤلف مشارك في الدراسة، فقد «يكون ذلك أفضل بكثير من أن يحمل المقال اسم الباحث بمفرده، بينما يكون لتلك الأداة دور كبير في كتابته»، كما قالت سيوبان أوكونور في تصريحاتها لـ«الشرق الأوسط».
الشرق الأوسط