Skip to content Skip to footer

هل يمكن للدردشة الآلية تأمين منزلك؟ الإجابة ليست كما تتوقع

بقلم: Tyler Lacoma

February 10, 2025

لطالما كنت من مؤيدي الذكاء الاصطناعي المفيد في مجال أمن المنازل، حيث أصبح بإمكانه إجراء المحادثات نيابةً عنا، والتعرف على الطرود، وتمييز الأشياء المهمة، وحتى البحث في سجلات الفيديو لدينا للإجابة على أسئلتنا. لكن هذا لا يعني أنك تستطيع ببساطة فتح ChatGPT وطرح أسئلة عليه تتعلق بأمن منزلك.

صحيح أن أدوات الذكاء الاصطناعي التوليدي وتطبيقات المحادثة لها استخداماتها، لكن الاعتماد على أي روبوت محادثة للحصول على نصائح تتعلق بسلامتك أو أمن منزلك أو التهديدات المحتملة له هو فكرة سيئة. لقد جربنا ذلك بأنفسنا، وكان من المقلق حقًا أن نرى كمّ الأخطاء التي قد يرتكبها أو المعلومات التي يعجز عن تقديمها.

هناك أسباب وجيهة لهذا الأمر: حتى أفضل نماذج الذكاء الاصطناعي الكبيرة (LLMs) لا تزال تعاني من “الهلاوس”، حيث تستنتج معلومات من الأنماط التي تعلّمتها، حتى لو لم تكن هذه المعلومات صحيحة. وهذه مشكلة كبيرة عندما يتعلق الأمر بتقنيات المنازل الذكية، لأن المواصفات التقنية، والنماذج، والثغرات الأمنية، والتحديثات تتغير باستمرار. لذلك، من السهل أن يقع ChatGPT في فخ تقديم معلومات غير دقيقة أو قديمة، أو حتى غير واقعية تمامًا.

دعونا نلقي نظرة على بعض الأخطاء الشائعة لنوضح المشكلة أكثر.

هل تسلا تتجسس على أنظمة أمن المنازل؟ 

طرح أسئلة عن تقنيات الأمن المتخصصة على روبوت محادثة قد يكون أمرًا محفوفًا بالمخاطر، وهذا المثال يوضح السبب. هناك قصة شائعة انتشرت على موقع Reddit حول شخص سأل روبوت محادثة عن أمن منزله، ليجيبه بأن سيارة تسلا يمكنها الوصول إلى “أنظمة الأمن المنزلية” الخاصة به! هذا ببساطة غير صحيح—على الأرجح، كان ذلك مجرد “هلوسة” من الذكاء الاصطناعي، ربما بسبب خدمة HomeLink التي توفرها تسلا، والتي تتيح للسائقين فتح أبواب المرآب المتوافقة معها.

حتى منصات مثل Google Gemini تعاني من مشكلة “الهلاوس”، مما يجعل من الصعب الوثوق في التفاصيل التي تقدمها. وبالرغم من أن الذكاء الاصطناعي يمكنه كتابة أي شيء، من المقالات إلى رسائل التصيد الاحتيالي، فإنه لا يزال يخطئ في تقديم المعلومات، مما قد يؤدي إلى مخاوف غير مبررة بشأن الخصوصية.

المثير للاهتمام هو أنه عندما سألت ChatGPT عن الأجهزة التي يمكن لسيارات تسلا الاتصال بها ومراقبتها، لم يكرر هذا الخطأ، لكنه أيضًا لم يذكر ميزات مثل HomeLink، مما يعني أنك لا تحصل على الصورة الكاملة. وهذه مجرد بداية المشكلة.

الذكاء الاصطناعي لا يستطيع مساعدتك أثناء التهديدات أو الكوارث المنزلية

تعاني نماذج الذكاء الاصطناعي الكبيرة، مثل ChatGPT، من صعوبة في فهم المعلومات الآنية واستخدامها لتقديم نصائح دقيقة. ويتجلى ذلك بشكل واضح خلال الكوارث الطبيعية مثل الحرائق، والفيضانات، والأعاصير.

على سبيل المثال، عندما كان إعصار ميلتون يقترب هذا الشهر، سألتُ ChatGPT عمّا إذا كان منزلي في خطر وأين من المتوقع أن يضرب الإعصار. ولحسن الحظ، لم يقدم لي إجابة خاطئة، لكنه أيضًا لم يكن قادرًا على تقديم أي نصيحة مفيدة، باستثناء إخباري بالرجوع إلى قنوات الطقس المحلية وخدمات الطوارئ.

في مثل هذه المواقف، لا تهدر وقتك في محاولة الحصول على إجابة من الذكاء الاصطناعي عندما يكون منزلك في خطر. بدلاً من ذلك، استخدم تطبيقات الطقس، وخدمات مثل Watch Duty، وصور الأقمار الصناعية المحدثة، والأخبار المحلية للحصول على معلومات دقيقة وموثوقة.

نماذج الذكاء الاصطناعي لا تواكب تحديثات اختراقات البيانات وأمن العلامات التجارية

سيكون من الرائع لو أن روبوتات الدردشة بالذكاء الاصطناعي يمكنها تقديم ملخص واضح عن سجل أي علامة تجارية فيما يتعلق بالاختراقات الأمنية، وما إذا كانت هناك أي إشارات تحذيرية تدعو للتفكير مرتين قبل شراء منتجاتها. لكن للأسف، لا تزال هذه الأدوات غير قادرة على القيام بذلك بشكل دقيق، مما يعني أنك لا تستطيع الاعتماد عليها للحصول على معلومات موثوقة عن الشركات المتخصصة في الأمن السيبراني.

على سبيل المثال، عندما سألت ChatGPT عمّا إذا كانت Ring قد تعرضت لاختراقات أمنية، أجاب بأنها واجهت “بعض الحوادث الأمنية”، لكنه لم يحدد متى حدثت (قبل عام 2018)، وهي معلومة محورية لفهم مدى خطورة تلك الاختراقات. كما أنه لم يذكر تطورات مهمة مثل قيام Ring بدفع تعويضات للمستخدمين المتضررين هذا العام، أو التغيير الذي طرأ على سياسات الشركة في 2024 والذي جعل من الصعب على الشرطة الوصول إلى بياناتها السحابية.

وعند سؤالي عن Wyze، والتي لا توصي بها منصة CNET حاليًا، أخبرني ChatGPT بأنها “خيار جيد” لأمن المنازل، وذكر فقط أنها تعرضت لاختراق بيانات في عام 2019 كشف معلومات المستخدمين. لكنه لم يشر إلى الاختراقات الأخرى الأكثر خطورة، مثل كشف قواعد بيانات وفيديوهات في عام 2022، أو الثغرات الأمنية في 2023 و2024، والتي سمحت لبعض المستخدمين بالوصول إلى مقاطع فيديو خاصة بأشخاص آخرين دون إذنهم.

إذن، رغم أن هذه الملخصات قد تبدو مفيدة، إلا أنها لا تعطيك الصورة الكاملة حول مدى أمان العلامات التجارية، ولا تخبرك بوضوح ما إذا كانت جديرة بالثقة أم لا.

روبوتات الدردشة لا تملك إجابات دقيقة حول اشتراكات أجهزة الأمن

من أكثر الأسئلة التي تُطرح حول أنظمة الأمن المنزلي: هل تحتاج هذه الأجهزة إلى اشتراك مدفوع أم لا؟ بعض الأشخاص لا يرغبون في دفع رسوم شهرية مستمرة، بينما يريد آخرون التأكد من أنهم يحصلون على قيمة حقيقية مقابل ما يدفعونه. ومع ذلك، رغم قدرة روبوتات الدردشة على تقديم إجابات دقيقة في مجالات كثيرة، إلا أنها تفشل بشكل ملحوظ عندما يتعلق الأمر بهذه التفاصيل.

عندما سألت ChatGPT عمّا إذا كانت منتجات Reolink تتطلب اشتراكات، لم يتمكن من إعطائي إجابة واضحة، بل اكتفى بالقول إن “العديد من المنتجات لا تحتاج إلى اشتراكات للميزات الأساسية، ولكن Reolink قد تقدم خطط اشتراك لبعض الميزات المتقدمة.”

حاولت تضييق النطاق وسألت تحديدًا عن Reolink Argus 4 Pro، لكن الإجابة بقيت غامضة، حيث قال إن بعض الميزات مجانية، بينما “قد” تتطلب ميزات أخرى اشتراكًا مدفوعًا. ببساطة، هذه الإجابات لا تفيد المستخدم الذي يبحث عن معلومة دقيقة.

أما لو ذهبت مباشرة إلى دليل CNET حول اشتراكات كاميرات الأمن، أو زرت الصفحة الرسمية لاشتراكات Reolink، فستكتشف أن الشركة تقدم خطتين رئيسيتين: الخطة الكلاسيكية والخطة المُحسّنة، وكلاهما مخصص لكاميرات LTE. تبدأ الأسعار من 6 إلى 7 دولارات شهريًا حسب عدد الكاميرات التي ترغب في تغطيتها، وترتفع إلى 15 إلى 25 دولارًا شهريًا إذا كنت بحاجة إلى مساحة تخزين سحابية أكبر وإشعارات ذكية محسنة.

بالمختصر، الحصول على المعلومة الصحيحة من المصدر الرسمي يستغرق وقتًا أقل بكثير من سؤال ChatGPT، كما أنك ستحصل على إجابة دقيقة بأرقام فعلية بدلاً من تخمينات غامضة.

لا تشارك عنوان منزلك أو أي معلومات شخصية مع روبوتات الدردشة

وكما يقول أحد المحققين المشهورين: “هناك شيء أخير فقط”. إذا كنت ستستخدم روبوت دردشة لطرح أسئلة عن أمن منزلك، فلا تقدم له أبدًا أي معلومات شخصية، مثل عنوانك، أو اسمك، أو وضعك المعيشي، أو بيانات الدفع الخاصة بك.

السبب بسيط: أنظمة الذكاء الاصطناعي، مثل ChatGPT، تعرضت في الماضي لثغرات تقنية سمحت لبعض المستخدمين بالاطلاع على بيانات خاصة بآخرين عن طريق الخطأ. كما أن سياسات الخصوصية الخاصة بهذه الأدوات يمكن تحديثها أو صياغتها بطرق غير واضحة، مما قد يسمح بجمع بيانات المستخدمين لأغراض غير معلنة.

في عالم أصبحت فيه البيانات الشخصية سلعة ثمينة، آخر ما تريده هو تقديم معلوماتك طواعيةً إلى أحد أكثر أنظمة الذكاء الاصطناعي انتشارًا.

احرص دائمًا على توخي الحذر فيما تشاركه من معلومات، بل وحتى في طريقة صياغتك للسؤال، لأن هناك دائمًا من يسعى لاستغلال أي معلومة قد تفصح عنها دون قصد.

المصدر: yahoo

Leave a comment