أصبح البحث النوعي شائع الاستخدام لأنه يساعد الباحثين في فهم القضايا والمشكلات في سياقها الطبيعي، لكي يتم التوصل إلى نتائج يمكن تعميمها وتهدف هذه المقالة إلى التعرف التفصيلي على التحليل النوعي لبيانات منصات التواصل الاجتماعي بالاستفادة من الذكاء الاصطناعي، حيث يساعد الذكاء الاصطناعي في اكتشاف البيانات وتتبعها، واكتشاف المحتوى غير المرغوب فيه وإنشاء وتصمم الأخبار ويحلل المحتوى والسياق والسلوك البشري وغيرها الكثير.

ويلجأ جميع الباحثين إلى تحليل البيانات لأنها من أهم مراحل البحث، فالباحث بعد أن يحصل على المعلومات والبيانات المرتبطة بدراسته يقوم بالبحث عن طرق التحليل اللازمة لها وتساعده في الوصول إلى النتائج التي يعتمد عليها، ويهدف التحليل إلى تنظيم وترتيب المعلومات، ويحصل على نتائج دقيقة ومنطقية تشرح المشكلة العلمية، كما أن الباحث يتمكن من جمع البيانات من خلال مجموعة من الطرق مثل الاستبيان والملاحظة والمقابلات وكلها طرق علمية مقننة تمكنه من الحصول على بيانات تتناسب مع موضوع دراسته بسهولة.

إن الموارد الأساسية لمواقع التواصل الاجتماعي هي البيانات، فهي تشكل المحور الرئيسي لتلك الموقع، حيث يتم تخزينها ومعالجتها وبيعها بعدة وسائل وهنا قد يختلف موقع عن آخر من حيث سياسة إتاحة وتوفير تلك البيانات للباحثين. حيث تعتبر شركة فيسبوك المالكة لموقع فيسبوك وإنستغرام من أكثر الشركات تعقيداً في إمكانية إتاحة الحصول على البيانات من منصاتها، على عكس موقع تويتر الذي يعتبر المصدر المحبب لمحللي بيانات مواقع التواصل الاجتماعي لكونه يتيح الحصول على البيانات بسهولة، عموماً توجد عدة طرق للحصول على بيانات مواقع التواصل الاجتماعي والبحث النوعي بالاستفادة من تقنيات الذكاء الاصطناعي هي:

1. عن طريق الواجهات البرمجية (Application Programming Interfaces)

بحيث توفر بعض مواقع التواصل واجهات برمجية يرمز لها اختصاراً (APIs) تُمكن الراغبين من الحصول على البيانات من منصتهم من الحصول عليها بسهولة، وتعتبر الواجهة البرمجية لموقع تويتر هي الأشهر والأكثر استخداما، وهذه الواجهات متوفرة بشكل مجاني ومدفوع، ولكن يجب التعامل مع أكواد برمجية بسيطة للحصول على البيانات، ويوجد العديد من النصوص البرمجية الجاهزة بلغات برمجية مختلفة لتسهيل هذه المهمة، وتوفر تويتر واجهتين برمجيتين أساسيتين لجلب تغريدات حول وسم معين (هاشتاق)، أو حول كلمات مُعينة

(key words) أو مستخدمين، الواجهة البرمجية الأولى هي المخصصة للبث الحي المباشر (Streaming API) للتغريدات حول كلمات أو أحداث معينة، حيث يتم تحميل/جلب ما يقدر بـ1% أو أقل (للمستخدم العادي) من التغريدات المنشورة على موقع تويتر المقدر عددها بـ6 آلاف تغريدة بالثانية تقريباً، وهذا النوع من الواجهات البرمجية مناسب لمتابعة حدث، حملة وسم (هاشتاق) يحدث بالوقت الحالي (أو عند التخطيط لحدث مستقبلي).

النوع الثاني من الواجهات البرمجية بموقع تويتر هي (REST APIs) وتستخدم للبحث التاريخي عن تغريدات حدثت بالماضي أو لقراءة وتحميل بيانات مستخدمين محددين.

ويعتبر هذا النوع مناسب للبحث الواحد المحدد عن مستخدمين محددين أو مواضيع حدثت بالماضي.

توجد ثلاثة أنواع من الحسابات التي تستطيع جمع البيانات من تويتر:

حساب أساسي (Standard): مجاني ويمنح المستخدم عدد محدود من الطلبات.

حساب ممتاز (Premium): قد يكون مدفوع، حيث إنه يمنح المطور عددا أكبر وأوسع من الخيارات.

حساب الشركات (Enterprise): موجهة للشركات التي تتطلب الحصول على بيانات بشكل أكبر.

2. استخدام برامج ومواقع جاهزة لجلب البيانات.

الطريقة الثانية تسمح بجلب البيانات عن طريق استخدام برامج وأدوات بواجهات سهلة للمستخدمين وهذه الطريقة مبنية على الطريقة السابقة، حيث تم استخدام الواجهات البرمجية (APIs) لتصميم وتطوير أدوات من قبل مطورين(وإتاحتها/بيعها) للمستخدمين بواجهات استخدام سهلة تمكن جميع أنواع المستخدمين من استخدامها بسهولة، وإيجابية هذه الطريقة هي سهولة التعامل مع واجهات البرامج، ولكن قد تكون هناك بعض القيود بعكس الطريقة السابقة.

وهكذا نجد الأثر الفعال والحقيقي لتوظيف تقنيات الذكاء الاصطناعي في جلب المحتوى المطلوب من بيانات منصات التواصل الاجتماعي المختلفة، وبالتالي المساهمة بتحقيق بحث نوعي أكثر سرعة ودقة وسهولة بالتنفيذ، والوصول للمحتوى المطلوب.