أكثر

كيف تسمح للمستخدم بوضع نقطة كمدخل لنموذج المعالجة الجغرافية؟

كيف تسمح للمستخدم بوضع نقطة كمدخل لنموذج المعالجة الجغرافية؟


هل هناك نظير لـ "مجموعة الميزات" الخاصة بـ Esri في نموذج QGIS. أنا مهتم بإنشاء نموذج يسمح للمستخدم بوضع معلم نقطي على الخريطة كمتغير إدخال لنموذج المعالجة الجغرافية. لقد فعلت ذلك في ModelBuilder ، لكنني أرغب في تكرار الجهد في QGIS.


أعتقد أن الطريقة الوحيدة للقيام بذلك حاليًا هي توجيه المستخدم لإنشاء طبقة نقطية (بنقطة واحدة) والتي تُستخدم بعد ذلك كمدخل لطبقة متجه في نموذج المعالجة.

على حد علمي ، لا توفر البرامج النصية والنماذج المعالجة حاليًا أي إمكانات لتفاعل المستخدم.

إذا كنت بحاجة إلى تفاعلات المستخدم ، فيمكنك كتابة مكون إضافي بدلاً من ذلك. سيهتم المكون الإضافي بمعالجة التفاعل ويمكنه استدعاء وظائف المعالجة إذا لزم الأمر.


استخدم أدوات المعالجة الجغرافية

تعتبر أدوات المعالجة الجغرافية ضرورية للتحليل المكاني ، ولكن لها استخدامات أخرى أيضًا. يتضمن التحليل المكاني أنشطة مثل مقارنة الأماكن ، وتحديد كيفية ارتباط الأماكن ، وإيجاد أفضل المواقع والمسارات ، واكتشاف الأنماط ، وعمل التنبؤات. تعمل معظم أدوات المعالجة الجغرافية على مجموعة بيانات الإدخال لإنشاء مجموعة بيانات الإخراج. تقوم بعض الأدوات بتعديل السمات أو الشكل الهندسي لمجموعة بيانات الإدخال. بعض الأدوات لها تأثيرات أخرى ، مثل إنشاء التحديدات على الطبقات أو إنشاء الرسائل أو التقارير.


& ltinput type = & quothidden & quot & gt يعرّف حقل إدخال مخفي (غير مرئي للمستخدم).

يسمح الحقل المخفي لمطوري الويب بتضمين البيانات التي لا يمكن للمستخدمين رؤيتها أو تعديلها عند إرسال النموذج.

غالبًا ما يخزن الحقل المخفي سجل قاعدة البيانات الذي يحتاج إلى تحديث عند إرسال النموذج.

ملحوظة: على الرغم من عدم عرض القيمة للمستخدم في محتوى الصفحة ، إلا أنها مرئية (ويمكن تعديلها) باستخدام أدوات مطور أي متصفح أو وظيفة & quot عرض المصدر & quot. لا تستخدم المدخلات المخفية كشكل من أشكال الأمن!

مثال


ضع ردود الإكمال التلقائي

يتم إرجاع استجابات "وضع الإكمال التلقائي" بالتنسيق المشار إليه بعلامة الإخراج داخل مسار عنوان URL للطلب. تشير النتائج أدناه إلى ما يمكن إرجاعه لاستعلام باستخدام المعلمات التالية:

أ استجابة JSON يحتوي على عنصرين أساسيين:

  • الحالة تحتوي على بيانات وصفية عند الطلب. انظر رموز الحالة أدناه.
  • تنبؤات تحتوي على مجموعة من الأماكن ، مع معلومات حول المكان. راجع وضع نتائج الإكمال التلقائي للحصول على معلومات حول هذه النتائج. تعرض الأماكن API ما يصل إلى 5 نتائج.

تعتبر عناصر place_id ذات أهمية خاصة ضمن النتائج ، والتي يمكن استخدامها لطلب المزيد من التفاصيل المحددة حول المكان عبر استعلام منفصل. انظر طلبات تفاصيل المكان.

راجع معالجة JSON باستخدام JavaScript للمساعدة في تحليل استجابات JSON.

ان استجابة XML يتكون من عنصر واحد & ltAutocompletionResponse & gt مع نوعين من العناصر الفرعية:

  • يحتوي عنصر & ltstatus & gt واحد على بيانات وصفية عند الطلب. انظر رموز الحالة أدناه.
  • صفر أو أكثر & ltprediction & gt element ، كل منها يحتوي على معلومات حول مكان واحد. راجع وضع نتائج الإكمال التلقائي للحصول على معلومات حول هذه النتائج. تعرض الأماكن API ما يصل إلى 5 نتائج.

نوصي باستخدام json كعلامة الإخراج المفضلة ما لم يتطلب تطبيقك xml لسبب ما. تتطلب معالجة أشجار XML بعض العناية ، بحيث تشير إلى العقد والعناصر المناسبة. راجع معالجة XML باستخدام XPath للمساعدة في معالجة XML.

من شروط الخدمة لدينا

اعرض الملف المطلوب
الشعارات والصفات

احترم حقوق الطبع والنشر والإسناد الخاصة بـ Google. تأكد من أن الشعار وإشعار حقوق النشر ظاهرين ، واعرض شعار "مدعوم من Google" إذا كنت تستخدم بيانات بدون خريطة.

رموز الحالة

يحتوي حقل الحالة داخل كائن استجابة "وضع الإكمال التلقائي" على حالة الطلب ، وقد يحتوي على معلومات تصحيح الأخطاء لمساعدتك في تعقب سبب فشل طلب "وضع الإكمال التلقائي". قد يحتوي حقل الحالة على القيم التالية:

  • يشير "موافق" إلى عدم حدوث أخطاء وإرجاع نتيجة واحدة على الأقل.
  • يشير ZERO_RESULTS إلى أن البحث كان ناجحًا ولكنه لم يُرجع أي نتائج. قد يحدث هذا إذا تم تمرير البحث في حدود في مكان بعيد.
  • يشير OVER_QUERY_LIMIT إلى أنك تجاوزت حصتك.
  • يشير REQUEST_DENIED إلى أنه تم رفض طلبك ، بشكل عام بسبب عدم وجود معلمة مفتاح صالحة.
  • يشير INVALID_REQUEST بشكل عام إلى أن معلمة الإدخال مفقودة.
  • يشير UNKNOWN_ERROR إلى احتمال نجاح المحاولة مرة أخرى في حدوث خطأ من جانب الخادم.

رسائل خاطئة

عندما تقوم خدمة أماكن Google بإرجاع رمز حالة بخلاف "موافق" ، فقد يكون هناك حقل error_message إضافي داخل كائن الاستجابة. يحتوي هذا الحقل على معلومات أكثر تفصيلاً حول الأسباب الكامنة وراء رمز الحالة المحدد. لا يتم إرجاع هذا الحقل دائمًا ، ومحتواه عرضة للتغيير.

رسائل المعلومات

عندما تعرض خدمة أماكن Google معلومات إضافية حول مواصفات الطلب ، فقد يكون هناك حقل info_messages إضافي داخل كائن الاستجابة. يتم إرجاع هذا الحقل فقط للطلبات الناجحة. قد لا يتم إرجاعها دائمًا ، ومحتواها عرضة للتغيير.

ضع نتائج الإكمال التلقائي

عندما تعرض خدمة الأماكن نتائج JSON من بحث ، فإنها تضعها في مصفوفة تنبؤات. حتى إذا لم تُرجع الخدمة أي نتائج (مثل إذا كان الموقع بعيدًا) فإنها لا تزال تُرجع مصفوفة تنبؤات فارغة. تتكون استجابات XML من صفر أو أكثر من & ltprediction & gt element.

تحتوي كل نتيجة توقع على الحقول التالية:

  • الوصف يحتوي على الاسم الذي يمكن للبشر قراءته للنتيجة التي تم إرجاعها. لنتائج التأسيس ، عادة ما يكون هذا هو اسم النشاط التجاري.
  • تحتوي مسافة الميتر على عدد صحيح يشير إلى مسافة الخط المستقيم بين المكان المتوقع ونقطة الأصل المحددة بالأمتار. يتم إرجاع هذا الحقل فقط عندما يتم تحديد نقطة الأصل في الطلب. لم يتم إرجاع هذا الحقل في تنبؤات نوع المسار.
  • place_id هو معرّف نصي يعرّف المكان بشكل فريد. لاسترداد معلومات حول المكان ، قم بتمرير هذا المعرف في حقل placeId لطلب واجهة برمجة تطبيقات الأماكن. لمزيد من المعلومات حول معرّفات الأماكن ، راجع نظرة عامة على معرّفات الأماكن.
  • تحتوي المصطلحات على مجموعة من المصطلحات التي تحدد كل قسم من الوصف الذي تم إرجاعه (يتم إنهاء قسم الوصف عمومًا بفاصلة). يحتوي كل إدخال في المصفوفة على حقل قيمة ، يحتوي على نص المصطلح ، وحقل إزاحة ، يحدد موضع بداية هذا المصطلح في الوصف ، مُقاسًا بأحرف Unicode.
  • تحتوي الأنواع على مصفوفة من الأنواع التي تنطبق على هذا المكان. على سبيل المثال: ["سياسية" ، "محلية"] أو ["مؤسسة" ، "كود جغرافي" ، "صالون تجميل"]. يمكن أن تحتوي المصفوفة على قيم متعددة. تعرف على المزيد حول أنواع الأماكن.
  • تحتوي matched_substrings على مصفوفة ذات قيمة وطول تعويض. يصف هذا موقع المصطلح الذي تم إدخاله في نص نتيجة التنبؤ ، بحيث يمكن تمييز المصطلح إذا رغبت في ذلك.
  • يوفر Structured_formatting نصًا منسقًا مسبقًا يمكن عرضه في نتائج الإكمال التلقائي ، ويحتوي على الحقول الفرعية التالية:
    • main_text تحتوي على النص الرئيسي للتنبؤ ، وعادة ما يكون اسم المكان.
    • main_text_matched_substrings تحتوي على مصفوفة ذات قيمة وطول إزاحة. يصف هذا موقع المصطلح الذي تم إدخاله في نص نتيجة التنبؤ ، بحيث يمكن تمييز المصطلح إذا رغبت في ذلك.
    • يحتوي Secondary_text على النص الثانوي للتنبؤ ، وعادة ما يكون موقع المكان.

    كيف تسمح للمستخدم بوضع نقطة كمدخل لنموذج المعالجة الجغرافية؟ - نظم المعلومات الجغرافية

    الجذب السياحي - مناطق الجذب القريبة من منطقة Point Pleasant Beach

    معلومات الشاطئ - وصف الشاطئ والوصول إلى الشاطئ

    بوردووك - قم بزيارة ممر بوينت بليزانت بيتش الشهير! يتضمن الوصف ومعلومات الزائر

    جدول الحدث - اكتشف ما يحدث في زيارتك القادمة إلى Point Pleasant Beach!

    الصيد - معلومات الصيد التي تغطي الخليج ومياه المحيط

    الغوص - هل أنت غواص؟ ثم انقر هنا وشاهد ما يقدمه العالم تحت الماء حول مدينتنا!

    مهرجان المأكولات البحرية - معلومات عن مهرجان المحيط الأطلسي الشهير الذي يقام في شهر سبتمبر في منطقة وسط المدينة!

    النقل - النقل من وإلى بوينت بليزانت بيتش ، نيوجيرسي بالقطار أو السيارة أو اليخت!

    معلومات الاتصال Shore Advantage

    معلومات الشرطة والحرائق والطوارئ

    أماكن الإقامة - دليل الفنادق والموتيلات والنزل في منطقة شاطئ بوينت بليزانت

    الأنشطة والترفيه - لا يوجد أبدًا نقص في الأشياء التي يمكنك القيام بها في منطقة Point Pleasant Beach - انقر هنا للحصول على بعض الأفكار!

    Antiques - يوفر Point Pleasant Beach للمتسوقين العتيقة مجموعة كبيرة من المحلات التجارية والبوتيكات

    Bait and Tackle - إليك بعض متاجر الطعم والتعامل بالمنطقة - توقف قبل الإبحار للحصول على الإمدادات والمعلومات المحلية.

    قوارب الصيد والتأجير - دليلنا الكامل لأفضل قوارب الصيد وقوارب الحفلات القريبة التي تبحر في مدخل ماناسكوان على مدار العام

    تأجير القوارب - دليلنا الخاص بإيجارات القوارب القريبة.

    منتجعات الصحة واللياقة والجمال - يحتوي Point Pleasant Beach على بعض المنتجعات الصحية واللياقة البدنية والمنتجعات الصحية التي يمكنك استخدامها كمقيم محلي أو أثناء الإجازة!

    المراسي - مراسي القوارب التي تضم Kens Landing. إرساء مع وصول سريع إلى المحيط عبر مدخل ماناسكوان

    الوسائط المتعددة - أسلوب الحياة والتاريخ والتعليم في بوينت بليزانت بيتش

    الحياة الليلية - قائمة بالمنشآت التي تقدم الترفيه خلال ساعات المساء

    السماسرة العقاريون - هل تبحث عن منزل على الشاطئ؟ هنا قائمة أصحاب العقارات الذين يغطون المنطقة

    المطاعم والمطاعم العائلية - دليل للعديد من المطاعم المحلية الراقية لمتعة تناول الطعام الخاصة بك. المأكولات البحرية والإيطالية والمكسيكية والمزيد!

    الرياضات المائية - من التزلج الهوائي إلى التجديف بالكاياك والتزلج على الماء ، ستجدها هنا!


    لماذا يعتبر حقن SQL مثل هذا الخطر الأمني ​​للحرم الجامعي؟

    يقوم المهاجمون باستمرار بفحص الإنترنت عمومًا ومواقع ويب الحرم الجامعي بحثًا عن ثغرات أمنية لحقن SQL. يستخدمون الأدوات التي تعمل تلقائيًا على اكتشاف عيوب حقن SQL ، ويحاولون استغلال حقن SQL بشكل أساسي لتحقيق مكاسب مالية (مثل سرقة معلومات التعريف الشخصية التي تُستخدم بعد ذلك لسرقة الهوية).

    نظرًا لأن العديد من التطبيقات الحديثة تعتمد على البيانات ويمكن الوصول إليها عبر الويب ، فإن ثغرات SQL Injection منتشرة على نطاق واسع ويمكن استغلالها بسهولة. بالإضافة إلى ذلك ، نظرًا لانتشار البنية التحتية لقواعد البيانات المشتركة ، يمكن أن يؤدي عيب حقن SQL في أحد التطبيقات إلى اختراق التطبيقات الأخرى التي تشترك في نفس مثيل قاعدة البيانات.

    بمجرد استغلالها ، يمكن أن تؤدي هجمات حقن SQL إلى:

    • سرقة أو تعديل أو حتى إتلاف بيانات حساسة مثل معلومات التعريف الشخصية وأسماء المستخدمين وكلمات المرور
    • رفع الامتيازات على مستوى التطبيق أو قاعدة البيانات أو حتى نظام التشغيل
    • يقوم المهاجمون "بتمحور" باستخدام خادم قاعدة بيانات تم اختراقه للهجوم على الأنظمة الأخرى الموجودة على نفس الشبكة

    تحليل توافق القيم: استخدام نظم المعلومات الجغرافية للمشاركة العامة (PPGIS) لدعم القرار في الإدارة الوطنية للغابات

    يتم تضمين القيم الإنسانية في قرارات إدارة الغابات ولكن نادرًا ما يتم تضمينها بشكل منهجي وصريح في عملية اتخاذ القرار. غالبًا ما توفر التشريعات الوطنية للأراضي العامة أهدافًا متضاربة ولكن القليل من الإرشادات للوكالات مثل دائرة الغابات الأمريكية لتفعيل تفضيلات القيمة العامة. تتضمن الصعوبة التاريخية المتمثلة في دمج القيم العامة في قرارات إدارة الغابات مشاكل القياس والتجميع وتحليل المقايضة. في هذه الورقة ، نقدم طريقة لقياس ودمج القيم العامة الصريحة مكانيًا التي تم جمعها باستخدام أنظمة المعلومات الجغرافية للمشاركة العامة (PPGIS) في إطار عمل دعم القرار الذي نسميه تحليل توافق القيم (VCA). نحن نقدم دراسة حالة لشرح كيف يمكن استخدام القيم العامة المكانية الصريحة لتحديد مدى توافق تعيين مسارات ATV / OHV على أراضي الغابات الوطنية. تم وضع تطبيقات وقيود VCA لدعم القرار وخلصنا إلى أن إطار عمل دعم القرار الفعال يجب أن يوفر درجة معينة من التوحيد القياسي ، وأن يكون شاملاً على نطاق واسع ، ويوفر الفرصة للانخراط في تحليلات القيمة المكانية المنهجية.

    هذه معاينة لمحتوى الاشتراك ، والوصول عبر مؤسستك.


    محتويات

    ظهرت الكائنات المصطنعة القادرة على التفكير كأجهزة رواية القصص في العصور القديمة ، [37] وكانت شائعة في الخيال ، كما في ماري شيلي فرانكشتاين أو Karel Čapek's ر. [38] أثارت هذه الشخصيات ومصائرها العديد من نفس القضايا التي نوقشت الآن في أخلاقيات الذكاء الاصطناعي. [32]

    بدأت دراسة الاستدلال الميكانيكي أو "الرسمي" مع الفلاسفة وعلماء الرياضيات في العصور القديمة. أدت دراسة المنطق الرياضي مباشرة إلى نظرية Alan Turing للحساب ، والتي اقترحت أن الآلة ، عن طريق خلط الرموز البسيطة مثل "0" و "1" ، يمكن أن تحاكي أي فعل يمكن تصوره من الاستنتاج الرياضي. تُعرف هذه الفكرة القائلة بأن أجهزة الكمبيوتر الرقمية يمكنها محاكاة أي عملية تفكير رسمي باسم أطروحة تشيرش تورينج. [39] جنبًا إلى جنب مع الاكتشافات المتزامنة في علم الأعصاب ونظرية المعلومات وعلم التحكم الآلي ، قاد هذا الباحثين للنظر في إمكانية بناء دماغ إلكتروني. اقترح تورينغ تغيير السؤال من ما إذا كانت الآلة ذكية ، إلى "ما إذا كان من الممكن للآلة أن تظهر سلوكًا ذكيًا أم لا". [40] كان أول عمل يُعرف الآن عمومًا باسم الذكاء الاصطناعي هو تصميم ماكولوش وبيتس الرسمي لعام 1943 لـ "الخلايا العصبية الاصطناعية" في تورينغ. [41]

    وُلد مجال أبحاث الذكاء الاصطناعي في ورشة عمل في كلية دارتموث في عام 1956 ، [42] حيث صاغ جون مكارثي مصطلح "الذكاء الاصطناعي" لتمييز المجال عن علم التحكم الآلي والهروب من تأثير عالم علم الإنترنت نوربرت وينر. [43] أصبح الحضور ألين نيويل (CMU) وهربرت سيمون (CMU) وجون مكارثي (معهد ماساتشوستس للتكنولوجيا) ومارفن مينسكي (معهد ماساتشوستس للتكنولوجيا) وآرثر صموئيل (آي بي إم) مؤسسين وقادة لأبحاث الذكاء الاصطناعي. [44] أنتجوا وطلابهم برامج وصفتها الصحافة بأنها "مدهشة": [45] كانت أجهزة الكمبيوتر تتعلم استراتيجيات لعبة الداما (حوالي 1954) [46] (وبحلول عام 1959 كانت تلعب بشكل أفضل من الإنسان العادي) ، [47] ] حل المسائل الكلامية في الجبر ، وإثبات النظريات المنطقية (المنطق ، أول تشغيل ج. 1956) والتحدث باللغة الإنجليزية. [48] ​​بحلول منتصف الستينيات ، تم تمويل الأبحاث في الولايات المتحدة بشكل كبير من قبل وزارة الدفاع [49] وتم إنشاء المعامل في جميع أنحاء العالم. [50] كان مؤسسو منظمة العفو الدولية متفائلين بشأن المستقبل: توقع هربرت سيمون ، "ستكون الآلات قادرة ، في غضون عشرين عامًا ، على القيام بأي عمل يمكن للرجل القيام به". وافق مارفن مينسكي ، وكتب ، "في غضون جيل. سيتم حل مشكلة إنشاء" الذكاء الاصطناعي "إلى حد كبير". [13]

    فشلوا في إدراك صعوبة بعض المهام المتبقية. تباطأ التقدم في عام 1974 ، واستجابة لانتقادات السير جيمس لايتيل [51] والضغط المستمر من الكونجرس الأمريكي لتمويل مشاريع أكثر إنتاجية ، أوقفت الحكومتان الأمريكية والبريطانية البحث الاستكشافي في الذكاء الاصطناعي. لاحقًا ، أُطلق على السنوات القليلة التالية اسم "شتاء الذكاء الاصطناعي" ، [15] وهي الفترة التي كان فيها الحصول على تمويل لمشروعات الذكاء الاصطناعي أمرًا صعبًا.

    في أوائل الثمانينيات ، تم إحياء أبحاث الذكاء الاصطناعي من خلال النجاح التجاري للأنظمة الخبيرة ، [52] وهو شكل من أشكال برنامج الذكاء الاصطناعي الذي يحاكي المعرفة والمهارات التحليلية للخبراء البشريين. بحلول عام 1985 ، وصل سوق الذكاء الاصطناعي إلى أكثر من مليار دولار. في الوقت نفسه ، ألهم مشروع الكمبيوتر من الجيل الخامس في اليابان الحكومتين الأمريكية والبريطانية لاستعادة تمويل البحث الأكاديمي. [14] ومع ذلك ، بدءًا من انهيار سوق Lisp Machine في عام 1987 ، سقطت سمعة الذكاء الاصطناعي مرة أخرى ، وبدأت فجوة ثانية طويلة الأمد. [16]

    مكّن تطوير التكامل الواسع النطاق (VLSI) من أكسيد المعادن وأشباه الموصلات (VLSI) ، في شكل تكنولوجيا ترانزستور MOS (CMOS) التكميلية ، من تطوير تقنية الشبكة العصبية الاصطناعية (ANN) العملية في الثمانينيات. كان المنشور التاريخي في هذا المجال هو كتاب 1989 تطبيق VLSI التناظري للأنظمة العصبية بواسطة كارفر أ.ميد ومحمد إسماعيل. [53]

    في أواخر التسعينيات وأوائل القرن الحادي والعشرين ، بدأ استخدام الذكاء الاصطناعي في الخدمات اللوجستية واستخراج البيانات والتشخيص الطبي ومجالات أخرى. [36] يرجع النجاح إلى زيادة القوة الحسابية (انظر قانون مور وعدد الترانزستور) ، وزيادة التركيز على حل مشكلات محددة ، والروابط الجديدة بين الذكاء الاصطناعي والمجالات الأخرى (مثل الإحصاء والاقتصاد والرياضيات) ، والتزام الباحثين الأساليب الرياضية والمعايير العلمية. [54] أصبح ديب بلو أول نظام كمبيوتر للعب الشطرنج يفوز على بطل الشطرنج العالمي ، جاري كاسباروف ، في 11 مايو 1997. [55]

    في عام 2011 ، في أ خطر! مسابقة عرض المعرض ، هزم نظام الإجابة على الأسئلة من شركة IBM ، واتسون ، أعظم اثنين خطر! البطلان براد روتر وكين جينينغز بهامش كبير. [56] أجهزة الكمبيوتر الأسرع ، والتحسينات الخوارزمية ، والوصول إلى كميات كبيرة من البيانات مكنت من التقدم في التعلم الآلي وطرق التعلم العميق المتعطشة لبيانات الإدراك وبدأت بالسيطرة على معايير الدقة في عام 2012 تقريبًا. واجهة Xbox 360 و Xbox One ، تستخدم الخوارزميات التي نشأت من بحث مطول للذكاء الاصطناعي [58] كما يفعل المساعدون الشخصيون الأذكياء في الهواتف الذكية. [59] في مارس 2016 ، فاز AlphaGo بـ 4 من أصل 5 مباريات من Go في مباراة مع بطل Go Lee Sedol ، ليصبح أول نظام تشغيل على الكمبيوتر يتفوق على لاعب Go محترف دون إعاقة. [10] [60] في عام 2017 Future of Go Summit ، فاز AlphaGo بمباراة من ثلاث مباريات مع Ke Jie ، [61] الذي كان في ذلك الوقت يحتل المرتبة الأولى على مستوى العالم لمدة عامين. [62] [63] وصف موراي كامبل من ديب بلو فوز AlphaGo بأنه "نهاية حقبة. تم إنجاز ألعاب الطاولة بشكل أو بآخر [64] وحان الوقت للمضي قدمًا." [65] يمثل هذا إنجازًا مهمًا في تطوير الذكاء الاصطناعي حيث أن Go هي لعبة معقدة نسبيًا ، أكثر من لعبة الشطرنج. تم تحسين AlphaGo لاحقًا ، وتعميمه على ألعاب أخرى مثل الشطرنج ، باستخدام AlphaZero [66] و MuZero [67] للعب العديد من ألعاب الفيديو المختلفة ، التي تم التعامل معها مسبقًا بشكل منفصل ، [68] بالإضافة إلى ألعاب الطاولة. تتعامل برامج أخرى مع ألعاب المعلومات غير الكاملة مثل لعبة البوكر على مستوى فوق طاقة البشر ، و Pluribus (بوت البوكر) [69] و Cepheus (بوت البوكر). [11] انظر: اللعب العام.

    وفقًا لجاك كلارك من Bloomberg ، كان عام 2015 عامًا بارزًا في مجال الذكاء الاصطناعي ، حيث زاد عدد مشاريع البرامج التي تستخدم الذكاء الاصطناعي داخل Google من "الاستخدام المتقطع" في عام 2012 إلى أكثر من 2700 مشروع.يقدم كلارك أيضًا بيانات واقعية تشير إلى تحسينات الذكاء الاصطناعي منذ عام 2012 مدعومة بمعدلات خطأ أقل في مهام معالجة الصور. [70] وعزا ذلك إلى زيادة في الشبكات العصبية بأسعار معقولة ، بسبب ارتفاع البنية التحتية للحوسبة السحابية وزيادة أدوات البحث ومجموعات البيانات. [17] ومن الأمثلة الأخرى التي تم الاستشهاد بها تطوير Microsoft لنظام Skype الذي يمكنه الترجمة تلقائيًا من لغة إلى أخرى ونظام Facebook الذي يمكنه وصف الصور للمكفوفين. [70] في استطلاع عام 2017 ، ذكرت واحدة من كل خمس شركات أنها "أدمجت الذكاء الاصطناعي في بعض العروض أو العمليات". [71] [72] في عام 2016 تقريبًا ، سارعت الصين بشكل كبير في تمويلها الحكومي نظرًا لإمدادها الكبير بالبيانات وزيادة إنتاجها البحثي سريعًا ، ويعتقد بعض المراقبين أنها قد تكون في طريقها لتصبح "قوة عظمى في الذكاء الاصطناعي". [73] [74]

    بحلول عام 2020 ، كانت أنظمة معالجة اللغة الطبيعية مثل GPT-3 الهائلة (التي كانت أكبر شبكة عصبية اصطناعية إلى حد بعيد) تتطابق مع الأداء البشري وفقًا لمعايير موجودة مسبقًا ، وإن لم يحقق النظام فهمًا منطقيًا لمحتويات المعايير. [75] أظهر AlphaFold 2 (2020) من DeepMind القدرة على تحديد البنية ثلاثية الأبعاد للبروتين في ساعات بدلًا من شهور. تقدم التعرف على الوجوه حيث ، في بعض الظروف ، تدعي بعض الأنظمة أن لديها معدل دقة يبلغ 99٪. [76]

    يعرف علم الحاسوب أبحاث الذكاء الاصطناعي على أنها دراسة "الوكلاء الأذكياء": أي جهاز يدرك بيئته ويتخذ إجراءات تزيد من فرصته في تحقيق أهدافه بنجاح. [3] هناك تعريف أكثر تفصيلاً يميز الذكاء الاصطناعي بأنه "قدرة النظام على تفسير البيانات الخارجية بشكل صحيح ، والتعلم من هذه البيانات ، واستخدام تلك المعارف لتحقيق أهداف ومهام محددة من خلال التكيف المرن." [77]

    يحلل الذكاء الاصطناعي النموذجي بيئته ويتخذ إجراءات تزيد من فرص نجاحه. [3] يمكن أن تكون وظيفة (أو هدف) المنفعة المقصودة للذكاء الاصطناعي بسيطة ("1 إذا فاز الذكاء الاصطناعي بلعبة Go ، 0 بخلاف ذلك") أو معقدة ("تنفيذ إجراءات مشابهة رياضيًا لتلك التي نجحت في الماضي"). يمكن تحديد الأهداف أو استحداثها بشكل صريح. إذا تمت برمجة الذكاء الاصطناعي من أجل "التعلم المعزز" ، فيمكن تحفيز الأهداف ضمنيًا عن طريق مكافأة بعض أنواع السلوك أو معاقبة الآخرين. [أ] بدلاً من ذلك ، يمكن للنظام التطوري أن يحفز الأهداف باستخدام "وظيفة اللياقة" للتحول والتكرار بشكل تفضيلي لأنظمة الذكاء الاصطناعي عالية الدرجات ، على غرار الطريقة التي تطورت بها الحيوانات لتتطلع فطريًا إلى أهداف معينة مثل العثور على الطعام. [78] بعض أنظمة الذكاء الاصطناعي ، مثل الجار الأقرب ، بدلاً من السبب عن طريق القياس ، لا تُعطى هذه الأنظمة عمومًا أهدافًا ، باستثناء الدرجة التي تكون فيها الأهداف ضمنية في بيانات التدريب الخاصة بهم. [79] لا يزال من الممكن قياس مثل هذه الأنظمة إذا تم تأطير النظام غير الهادف كنظام "هدفه" هو إنجاز مهمة التصنيف الضيقة الخاصة به. [80]

    غالبًا ما يدور الذكاء الاصطناعي حول استخدام الخوارزميات. الخوارزمية هي مجموعة من التعليمات الواضحة التي يمكن للحاسوب الميكانيكي تنفيذها. [ب] غالبًا ما تُبنى الخوارزمية المعقدة فوق خوارزميات أخرى أبسط. مثال بسيط على الخوارزمية هو الوصفة التالية (الأمثل للاعب الأول) للعب في لعبة tic-tac-toe: [81]

    1. إذا كان لدى شخص ما "تهديد" (أي اثنان على التوالي) ، خذ المربع المتبقي. غير ذلك،
    2. إذا انقلبت الحركة لإنشاء تهديدين في وقت واحد ، فقم بتشغيل هذه الحركة. غير ذلك،
    3. خذ المربع المركزي إذا كان مجانيًا. غير ذلك،
    4. إذا لعب خصمك في زاوية ، خذ الزاوية المعاكسة. غير ذلك،
    5. خذ زاوية فارغة إن وجدت. غير ذلك،
    6. خذ أي مربع فارغ.

    العديد من خوارزميات الذكاء الاصطناعي قادرة على التعلم من البيانات التي يمكنها تحسين نفسها من خلال تعلم أساليب جديدة (استراتيجيات ، أو "قواعد عامة" ، والتي عملت بشكل جيد في الماضي) ، أو يمكنها كتابة خوارزميات أخرى. يمكن لبعض "المتعلمين" الموصوفين أدناه ، بما في ذلك شبكات Bayesian ، وأشجار القرار ، وأقرب الجيران ، من الناحية النظرية ، (بالنظر إلى البيانات والوقت والذاكرة اللانهائية) أن يتعلموا تقريب أي وظيفة ، بما في ذلك مجموعة الوظائف الرياضية التي من شأنها أن تصف بشكل أفضل العالمية. [ بحاجة لمصدر ] وبالتالي يمكن لهؤلاء المتعلمين اشتقاق كل المعرفة الممكنة ، من خلال النظر في كل فرضية ممكنة ومطابقتها مع البيانات. من الناحية العملية ، نادرًا ما يكون من الممكن النظر في كل الاحتمالات ، بسبب ظاهرة "الانفجار الاندماجي" ، حيث ينمو الوقت اللازم لحل المشكلة بشكل كبير. تتضمن الكثير من أبحاث الذكاء الاصطناعي اكتشاف كيفية تحديد مجموعة واسعة من الاحتمالات التي من غير المرجح أن تكون مفيدة وتجنبها. [82] [83] على سبيل المثال ، عند عرض الخريطة والبحث عن أقصر طريق للقيادة من دنفر إلى نيويورك في الشرق ، يمكن للمرء في معظم الحالات تخطي النظر إلى أي مسار عبر سان فرانسيسكو أو مناطق أخرى بعيدة إلى الغرب على هذا النحو ، يمكن للذكاء الاصطناعي الذي يستخدم خوارزمية تحديد المسار مثل A * أن يتجنب الانفجار الاندماجي الذي قد ينتج إذا كان لا بد من التفكير في كل طريق ممكن. [84]

    كان النهج الأول (والأسهل في الفهم) للذكاء الاصطناعي هو الرمزية (مثل المنطق الرسمي): "إذا كان شخص بالغ سليم مصابًا بالحمى ، فقد يكون مصابًا بالإنفلونزا". النهج الثاني الأكثر عمومية هو الاستدلال البايزي: "إذا كان المريض الحالي يعاني من الحمى ، فاضبط احتمالية إصابته بالإنفلونزا بطريقة كذا وكذا". النهج الرئيسي الثالث ، الذي يحظى بشعبية كبيرة في تطبيقات الأعمال الروتينية للذكاء الاصطناعي ، هو المقارنات مثل SVM وأقرب الجيران: "بعد فحص سجلات المرضى السابقين المعروفين الذين تتطابق درجة حرارتهم وأعراضهم وعمرهم وعوامل أخرى مع المريض الحالي في الغالب ، X٪ من هؤلاء المرضى تبين أنهم مصابون بالأنفلونزا ". يصعب فهم النهج الرابع بشكل حدسي ، ولكنه مستوحى من كيفية عمل آلية الدماغ: يستخدم نهج الشبكة العصبية الاصطناعية "الخلايا العصبية" الاصطناعية التي يمكن أن تتعلم من خلال مقارنة نفسها بالمخرجات المرغوبة وتغيير نقاط القوة في الاتصالات بين الخلايا العصبية الداخلية. "لتعزيز" الروابط التي بدت مفيدة. يمكن أن تتداخل هذه الأساليب الرئيسية الأربعة مع بعضها البعض ومع الأنظمة التطورية ، على سبيل المثال ، يمكن للشبكات العصبية أن تتعلم كيفية عمل الاستدلالات والتعميم وإجراء المقارنات. تستخدم بعض الأنظمة ، ضمنيًا أو صريحًا ، العديد من هذه الأساليب ، جنبًا إلى جنب مع العديد من خوارزميات الذكاء الاصطناعي وغير الذكاء الاصطناعي الأخرى ، غالبًا ما يختلف النهج الأفضل اعتمادًا على المشكلة. [85] [86]

    تعمل خوارزميات التعلم على أساس أن الاستراتيجيات والخوارزميات والاستنتاجات التي نجحت في الماضي من المرجح أن تستمر في العمل بشكل جيد في المستقبل. يمكن أن تكون هذه الاستنتاجات واضحة ، مثل "بما أن الشمس تشرق كل صباح على مدار آخر 10000 يوم ، فمن المحتمل أن تشرق صباح الغد أيضًا". يمكن أن تكون دقيقة ، مثل "X٪ من العائلات لديها أنواع منفصلة جغرافيًا مع متغيرات لونية ، لذلك هناك فرصة بنسبة Y٪ لوجود البجعات السوداء غير المكتشفة". يعمل المتعلمون أيضًا على أساس "شفرة أوكام": إن أبسط نظرية تشرح البيانات هي الأكثر احتمالية. لذلك ، وفقًا لمبدأ الشفرة لأوكام ، يجب تصميم المتعلم بحيث يفضل النظريات الأبسط على النظريات المعقدة ، إلا في الحالات التي أثبتت فيها النظرية المعقدة أنها أفضل بكثير.

    يُعرف الاستقرار على نظرية سيئة ومعقدة للغاية تم التلاعب بها لتناسب جميع بيانات التدريب السابقة باسم overfitting. تحاول العديد من الأنظمة تقليل التخصيص الزائد عن طريق مكافأة النظرية وفقًا لمدى ملاءمتها للبيانات ، ولكن معاقبة النظرية وفقًا لمدى تعقيد النظرية. [87] بالإضافة إلى التحسين التقليدي ، يمكن للمتعلمين أيضًا أن يخيب أملهم من خلال "تعلم الدرس الخطأ". مثال على لعبة هو أن مصنف الصور الذي تم تدريبه فقط على صور الخيول البنية والقطط السوداء قد يستنتج أن جميع البقع البنية من المحتمل أن تكون خيول. [88] من الأمثلة الواقعية أنه ، على عكس البشر ، لا تصدر المصنفات الحالية للصور أحكامًا من العلاقة المكانية بين مكونات الصورة ، ويتعلمون العلاقات بين وحدات البكسل التي لا يدركها البشر ، ولكنها لا تزال مرتبطة مع صور لأنواع معينة من الأشياء الحقيقية. يمكن أن يؤدي تعديل هذه الأنماط على صورة شرعية إلى صور "معادية" يخطئ النظام في تصنيفها. [ج] [89] [90]

    بالمقارنة مع البشر ، يفتقر الذكاء الاصطناعي الحالي إلى العديد من ميزات "التفكير المنطقي" البشري ، وأبرزها أن البشر لديهم آليات قوية للتفكير حول "الفيزياء الساذجة" مثل المكان والزمان والتفاعلات الفيزيائية. وهذا يمكن حتى الأطفال الصغار من الوصول بسهولة إلى استنتاجات مثل "إذا دحرجت هذا القلم من على الطاولة ، فسوف يسقط على الأرض". يتمتع البشر أيضًا بآلية قوية لـ "علم النفس الشعبي" التي تساعدهم على تفسير جمل اللغة الطبيعية مثل "رفض أعضاء مجلس المدينة المتظاهرين تصريحًا لأنهم دعوا إلى العنف" (يجد الذكاء الاصطناعي العام صعوبة في تحديد ما إذا كان الأشخاص الذين يُزعم أنهم يدافعون عن العنف. العنف هم أعضاء المجلس أو المتظاهرين [91] [92] [93]). هذا النقص في "المعرفة العامة" يعني أن الذكاء الاصطناعي غالبًا ما يرتكب أخطاء مختلفة عن تلك التي يرتكبها البشر ، بطرق قد تبدو غير مفهومة. على سبيل المثال ، لا يمكن للسيارات الحالية ذاتية القيادة أن تفكر في الموقع ولا نوايا المشاة بالطريقة الدقيقة التي يفعلها البشر ، وبدلاً من ذلك يجب أن تستخدم أساليب التفكير غير البشرية لتجنب الحوادث. [94] [95] [96]

    القدرات المعرفية للبنى الحالية محدودة للغاية ، باستخدام نسخة مبسطة فقط لما يمكن للذكاء فعله حقًا. على سبيل المثال ، توصل العقل البشري إلى طرق للتفكير تتجاوز القياس والتفسيرات المنطقية للأحداث المختلفة في الحياة. ما كان يمكن أن يكون واضحًا بخلاف ذلك ، قد تكون مشكلة صعبة مكافئة صعبة لحلها حسابيًا بدلاً من استخدام العقل البشري. يؤدي هذا إلى ظهور فئتين من النماذج: البنيوية والوظيفية. تهدف النماذج الهيكلية إلى محاكاة عمليات الذكاء الأساسية للعقل مثل التفكير والمنطق. يشير النموذج الوظيفي إلى البيانات المرتبطة بنظيرتها المحسوبة. [97]

    الهدف العام للبحث في الذكاء الاصطناعي هو إنشاء تقنية تسمح لأجهزة الكمبيوتر والآلات بالعمل بطريقة ذكية. تم تقسيم المشكلة العامة لمحاكاة (أو إنشاء) الذكاء إلى مشاكل فرعية. تتكون هذه من سمات أو قدرات معينة يتوقع الباحثون أن يعرضها نظام ذكي. حظيت السمات الموضحة أدناه بأكبر قدر من الاهتمام. [20]

    التفكير وحل المشكلات

    طور الباحثون الأوائل خوارزميات تحاكي التفكير التدريجي الذي يستخدمه البشر عند حل الألغاز أو إجراء استنتاجات منطقية. [98] بحلول أواخر الثمانينيات والتسعينيات ، طورت أبحاث الذكاء الاصطناعي طرقًا للتعامل مع المعلومات غير المؤكدة أو غير الكاملة ، باستخدام مفاهيم من الاحتمالات والاقتصاد. [99]

    أثبتت هذه الخوارزميات أنها غير كافية لحل مشاكل التفكير الكبيرة لأنها تعرضت لـ "انفجار اندماجي": فقد أصبحت أبطأ بشكل كبير مع تزايد المشكلات. [82] حتى البشر نادرًا ما يستخدمون الاستنتاج التدريجي الذي يمكن لأبحاث الذكاء الاصطناعي المبكرة أن تكون نموذجًا له. يحلون معظم مشاكلهم باستخدام أحكام سريعة وبديهية. [100]

    تمثيل المعرفة

    يمثل تمثيل المعرفة [101] وهندسة المعرفة [102] مركزيًا لأبحاث الذكاء الاصطناعي الكلاسيكية. تحاول بعض "الأنظمة الخبيرة" جمع المعرفة الواضحة التي يمتلكها الخبراء في بعض المجالات الضيقة. بالإضافة إلى ذلك ، تحاول بعض المشاريع جمع "المعرفة المنطقية" المعروفة للشخص العادي في قاعدة بيانات تحتوي على معرفة واسعة حول العالم. من بين الأشياء التي قد تحتويها قاعدة المعرفة الشاملة المنطقية: الأشياء ، والخصائص ، والفئات ، والعلاقات بين الأشياء [103] المواقف والأحداث والحالات والوقت [104] الأسباب والتأثيرات [105] المعرفة حول المعرفة (ما نعرفه عن الأشياء الأخرى يعرف الناس) [106] والعديد من المجالات الأخرى الأقل بحثًا. تمثيل "ما هو موجود" هو علم الوجود: مجموعة الكائنات والعلاقات والمفاهيم والخصائص الموصوفة رسميًا بحيث يمكن لوكلاء البرامج تفسيرها. يتم التقاط دلالات هذه على أنها مفاهيم منطق الوصف والأدوار والأفراد ، ويتم تنفيذها عادةً كصفوف وخصائص وأفراد في لغة علم الوجود على الويب. [107] يُطلق على الأنطولوجيا الأكثر عمومية اسم الأنطولوجيا العليا ، والتي تحاول توفير أساس لجميع المعارف الأخرى. . يمكن استخدام تمثيلات المعرفة الرسمية هذه في الفهرسة والاسترجاع المستندة إلى المحتوى ، [109] تفسير المشهد ، [110] دعم القرار السريري ، [111] اكتشاف المعرفة (التنقيب عن الاستنتاجات "المثيرة للاهتمام" والقابلة للتنفيذ من قواعد البيانات الكبيرة) ، [112] و مناطق أخرى. [113]

    من بين أصعب المشاكل في تمثيل المعرفة:

    التفكير الافتراضي ومشكلة التأهيل تأخذ العديد من الأشياء التي يعرفها الناس شكل "افتراضات العمل". على سبيل المثال ، إذا ظهر طائر في محادثة ، فعادة ما يتخيل الناس حيوانًا بحجم قبضة اليد يغني ويطير. لا شيء من هذه الأشياء صحيح بالنسبة لجميع الطيور. حدد جون مكارثي هذه المشكلة في عام 1969 [114] على أنها مشكلة التأهيل: بالنسبة لأي قاعدة منطقية يهتم باحثو الذكاء الاصطناعي بتمثيلها ، هناك عدد كبير من الاستثناءات. لا شيء تقريبًا صحيح أو خاطئ بالطريقة التي يتطلبها المنطق المجرد. بحثت أبحاث الذكاء الاصطناعي في عدد من الحلول لهذه المشكلة. [115] اتساع نطاق المعرفة المنطقية عدد الحقائق الذرية التي يعرفها الشخص العادي كبير جدًا. تتطلب المشاريع البحثية التي تحاول بناء قاعدة معرفية كاملة للمعرفة المنطقية (على سبيل المثال ، Cyc) كميات هائلة من الهندسة الأنطولوجية الشاقة - يجب بناؤها يدويًا ، بمفهوم واحد معقد في كل مرة. [116] شكل فرعي لبعض المعارف المنطقية الكثير مما يعرفه الناس لا يتم تمثيله على أنه "حقائق" أو "بيانات" يمكنهم التعبير عنها شفهيًا. على سبيل المثال ، سيتجنب سيد الشطرنج وضعًا معينًا للشطرنج لأنه "يشعر بأنه مكشوف للغاية" [117] أو يمكن للناقد الفني أن يلقي نظرة واحدة على التمثال ويدرك أنه مزيف. [118] هذه هي حدس أو ميول غير واعية وشبه رمزية في الدماغ البشري. [119] مثل هذه المعرفة تُعلم وتدعم وتوفر سياقًا للمعرفة الرمزية الواعية. كما هو الحال مع مشكلة التفكير شبه الرمزي ذات الصلة ، من المأمول أن يوفر الذكاء الاصطناعي أو الذكاء الحسابي أو الذكاء الاصطناعي الإحصائي طرقًا لتمثيل هذه المعرفة. [119]

    تخطيط

    يجب أن يكون العملاء الأذكياء قادرين على تحديد الأهداف وتحقيقها. [120] يحتاجون إلى طريقة لتصور المستقبل - تمثيل لحالة العالم والقدرة على عمل تنبؤات حول كيفية تغيير أفعالهم له - والقدرة على اتخاذ خيارات تزيد من المنفعة (أو "القيمة") من الخيارات المتاحة. [121]

    في مشاكل التخطيط الكلاسيكية ، يمكن للعامل أن يفترض أنه النظام الوحيد الذي يعمل في العالم ، مما يسمح للوكيل بالتأكد من عواقب أفعاله. [122] ومع ذلك ، إذا لم يكن الوكيل هو الفاعل الوحيد ، فإنه يتطلب أن يمكن للوكيل التفكير في ظل عدم اليقين. وهذا يستدعي وجود وكيل لا يمكنه فقط تقييم بيئته وإجراء التنبؤات ولكن أيضًا تقييم تنبؤاته والتكيف بناءً على تقييمه. [123]

    يستخدم التخطيط متعدد العوامل التعاون والمنافسة بين العديد من الوكلاء لتحقيق هدف معين. يتم استخدام السلوك الناشئ مثل هذا من قبل الخوارزميات التطورية وذكاء السرب. [124]

    التعلم

    التعلم الآلي (ML) ، وهو مفهوم أساسي لأبحاث الذكاء الاصطناعي منذ بداية المجال ، [د] هو دراسة خوارزميات الكمبيوتر التي تتحسن تلقائيًا من خلال التجربة. [هـ] [127]

    التعلم غير الخاضع للإشراف هو القدرة على العثور على أنماط في تدفق المدخلات ، دون مطالبة الإنسان بتسمية المدخلات أولاً. يشمل التعلم الخاضع للإشراف كلاً من التصنيف والانحدار العددي ، الأمر الذي يتطلب من الإنسان تسمية بيانات الإدخال أولاً. يستخدم التصنيف لتحديد الفئة التي ينتمي إليها شيء ما ، ويحدث بعد أن يرى البرنامج عددًا من الأمثلة لأشياء من عدة فئات. الانحدار هو محاولة إنتاج دالة تصف العلاقة بين المدخلات والمخرجات وتتنبأ بكيفية تغير المخرجات مع تغير المدخلات. [127] يمكن النظر إلى كل من المصنفات ومتعلمي الانحدار على أنهم "مقربون للوظائف" يحاولون تعلم وظيفة غير معروفة (ربما ضمنية) على سبيل المثال ، يمكن اعتبار مصنف البريد العشوائي على أنه تعلم وظيفة تقوم بتعيين نص رسالة بريد إلكتروني إلى أحد فئتين ، "البريد العشوائي" أو "ليست رسائل غير مرغوب فيها". يمكن لنظرية التعلم الحسابي تقييم المتعلمين من خلال التعقيد الحسابي ، وتعقيد العينة (مقدار البيانات المطلوبة) ، أو من خلال مفاهيم أخرى للتحسين. [128] في التعلم المعزز [129] يكافأ العامل على الاستجابات الجيدة ويعاقب على الردود السيئة. يستخدم الوكيل هذا التسلسل من المكافآت والعقوبات لتشكيل استراتيجية للعمل في مساحة المشكلة.

    معالجة اللغة الطبيعية

    تسمح معالجة اللغة الطبيعية [130] (NLP) للآلات بقراءة وفهم اللغة البشرية. من شأن نظام معالجة اللغة الطبيعية القوي بما فيه الكفاية أن يمكّن واجهات مستخدم اللغة الطبيعية واكتساب المعرفة مباشرة من مصادر كتبها الإنسان ، مثل نصوص الأخبار. تتضمن بعض التطبيقات المباشرة لمعالجة اللغة الطبيعية استرجاع المعلومات ، والتنقيب عن النصوص ، والإجابة على الأسئلة ، والترجمة الآلية. [131] تستخدم العديد من الأساليب الحالية الترددات المتزامنة للكلمات لبناء تمثيلات نحوية للنص. تعتبر استراتيجيات "اكتشاف الكلمات الرئيسية" للبحث شائعة وقابلة للتطوير ، ولكن قد يتطابق طلب البحث عن "كلب" الغبي فقط مع المستندات مع الكلمة الحرفية "كلب" ويفتقد مستندًا بكلمة "كلب". تستخدم استراتيجيات "التقارب المعجمي" حدوث كلمات مثل "حادث" لتقييم شعور المستند. يمكن لمقاربات البرمجة اللغوية العصبية الحديثة أن تجمع بين كل هذه الاستراتيجيات وغيرها ، وتحقق غالبًا دقة مقبولة على مستوى الصفحة أو الفقرة. بعيدًا عن البرمجة اللغوية العصبية الدلالي ، فإن الهدف النهائي من البرمجة اللغوية العصبية "السردية" هو تجسيد فهم كامل للتفكير المنطقي. [132] بحلول عام 2019 ، يمكن أن تولد معماريات التعلم العميق القائمة على المحولات نصًا متماسكًا. [133]

    المعرفة

    تصور الآلة [134] هو القدرة على استخدام المدخلات من أجهزة الاستشعار (مثل الكاميرات (الطيف المرئي أو الأشعة تحت الحمراء) ، والميكروفونات ، والإشارات اللاسلكية ، وأجهزة الاستشعار النشطة التي تعمل باللمس والسونار والرادار والليدار) لاستنتاج جوانب من العالم. تتضمن التطبيقات التعرف على الكلام ، [135] التعرف على الوجه ، والتعرف على الأشياء. [١٣٦] رؤية الكمبيوتر هي القدرة على تحليل المدخلات المرئية. عادةً ما يكون هذا الإدخال غامضًا ، فقد ينتج عن المشاة العملاق الذي يبلغ ارتفاعه خمسين مترًا نفس وحدات البكسل مثل المشاة ذات الحجم الطبيعي القريب ، مما يتطلب من الذكاء الاصطناعي الحكم على الاحتمال النسبي ومعقولية التفسيرات المختلفة ، على سبيل المثال باستخدام "الكائن" الخاص به نموذج "لتقييم عدم وجود مشاة بطول خمسين متراً.[137]

    الحركة والتلاعب

    يستخدم الذكاء الاصطناعي بكثرة في الروبوتات. [138] يمكن للأذرع الروبوتية المتقدمة والروبوتات الصناعية الأخرى ، المستخدمة على نطاق واسع في المصانع الحديثة ، أن تتعلم من التجربة كيفية التحرك بكفاءة على الرغم من وجود الاحتكاك وانزلاق التروس. [139] يمكن للروبوت المتحرك الحديث ، عند إعطائه بيئة صغيرة وثابتة ومرئية ، تحديد موقعه بسهولة ورسم خريطة لبيئته ، ومع ذلك ، فإن البيئات الديناميكية ، مثل (التنظير الداخلي) داخل جسم تنفس المريض ، تشكل مساحة أكبر. تحدي. تخطيط الحركة هو عملية تقسيم مهمة الحركة إلى "بدائية" مثل حركات المفصل الفردية. غالبًا ما تتضمن هذه الحركة حركة متوافقة ، وهي عملية تتطلب فيها الحركة الحفاظ على الاتصال الجسدي مع شيء ما. [140] [141] [142] مفارقة مورافيك تعمم أن المهارات الحسية الحركية منخفضة المستوى التي يعتبرها البشر أمرًا مفروغًا منه ، على عكس الحدس ، يصعب برمجتها في روبوت ، وقد سميت المفارقة باسم هانز مورافيك ، الذي ذكر في عام 1988 أنه "نسبيًا" من السهل جعل أجهزة الكمبيوتر تظهر أداء بمستوى البالغين في اختبارات الذكاء أو لعب الداما ، ومن الصعب أو المستحيل منحهم مهارات طفل يبلغ من العمر سنة واحدة عندما يتعلق الأمر بالإدراك والتنقل ". [143] [144] يُعزى ذلك إلى حقيقة أنه ، على عكس لعبة الداما ، كانت البراعة الجسدية هدفًا مباشرًا للانتقاء الطبيعي لملايين السنين. [145]

    الذكاء الاجتماعي

    يمكن أن تمتد مفارقة مورافيك إلى العديد من أشكال الذكاء الاجتماعي. [147] [148] لا يزال التنسيق الموزع متعدد الوكلاء للمركبات ذاتية القيادة يمثل مشكلة صعبة. [149] الحوسبة الوجدانية هي مظلة متعددة التخصصات تضم الأنظمة التي تتعرف على التأثيرات البشرية أو تفسرها أو تعالجها أو تحاكيها. [150] [151] [152] تشمل النجاحات المعتدلة المتعلقة بالحوسبة العاطفية تحليل المشاعر النصية ، ومؤخراً ، تحليل التأثير متعدد الوسائط (انظر تحليل المشاعر متعددة الوسائط) ، حيث يصنف الذكاء الاصطناعي التأثيرات التي يعرضها موضوع مسجل على شريط فيديو. [153]

    على المدى الطويل ، ستكون المهارات الاجتماعية وفهم العواطف البشرية ونظرية اللعبة ذات قيمة بالنسبة للعامل الاجتماعي. إن القدرة على التنبؤ بأفعال الآخرين من خلال فهم دوافعهم وحالاتهم العاطفية ستسمح للوكيل باتخاذ قرارات أفضل. تحاكي بعض أنظمة الكمبيوتر المشاعر والتعبيرات البشرية لتبدو أكثر حساسية للديناميكيات العاطفية للتفاعل البشري ، أو لتسهيل التفاعل بين الإنسان والحاسوب. [154] وبالمثل ، تمت برمجة بعض المساعدين الافتراضيين للتحدث بطريقة محادثة أو حتى المزاح بطريقة فكاهية ، وهذا يميل إلى إعطاء المستخدمين الساذجين تصورًا غير واقعي عن مدى ذكاء وكلاء الكمبيوتر الحاليين. [155]

    المخابرات العامة

    تاريخيًا ، حاولت مشاريع مثل قاعدة المعرفة Cyc (1984-) والمبادرة الضخمة لأنظمة الكمبيوتر من الجيل الخامس اليابانية (1982-1992) تغطية اتساع نطاق الإدراك البشري. فشلت هذه المشاريع المبكرة في الهروب من قيود النماذج المنطقية الرمزية غير الكمية ، وفي وقت لاحق ، قللت إلى حد كبير من صعوبة الذكاء الاصطناعي عبر المجالات. في الوقت الحاضر ، يعمل معظم باحثي الذكاء الاصطناعي الحاليين بدلاً من ذلك على تطبيقات "ذكاء اصطناعي ضيقة" قابلة للتتبع (مثل التشخيص الطبي أو التنقل في السيارات). [156] يتوقع العديد من الباحثين أن مثل هذا العمل "الضيق للذكاء الاصطناعي" في مجالات فردية مختلفة سيتم دمجه في نهاية المطاف في آلة ذات ذكاء عام اصطناعي (AGI) ، والجمع بين معظم المهارات المحدودة المذكورة في هذه المقالة وفي مرحلة ما تتجاوز قدرة الإنسان في معظم أو كل هذه المجالات. [26] [157] العديد من التطورات لها أهمية عامة عبر المجالات. أحد الأمثلة البارزة هو أن DeepMind طور في عام 2010 "ذكاء اصطناعيًا معممًا" يمكنه تعلم العديد من ألعاب Atari المتنوعة من تلقاء نفسه ، ثم طور لاحقًا نظامًا مختلفًا ينجح في التعلم المتسلسل. [158] [159] [160] إلى جانب نقل التعلم ، [161] يمكن أن تشمل الاختراقات الافتراضية للذكاء الاصطناعي العام تطوير معماريات عاكسة يمكن أن تشارك في التفكير المنطقي النظري للقرار ، واكتشاف كيفية "استخلاص" قاعدة معرفية شاملة من الويب غير المهيكل بالكامل. [162] يجادل البعض بأن نوعًا ما (غير مكتشف حاليًا) واضح من الناحية المفاهيمية ، ولكنه صعب رياضيًا ، "الخوارزمية الرئيسية" يمكن أن تؤدي إلى الذكاء الاصطناعي العام. [163] أخيرًا ، هناك عدد قليل من الأساليب "الناشئة" التي تتطلع إلى محاكاة الذكاء البشري عن كثب ، وتعتقد أن السمات المجسمة مثل الدماغ الاصطناعي أو نمو الطفل المحاكى قد تصل يومًا ما إلى نقطة حرجة حيث يظهر الذكاء العام. [164] [165]

    قد تتطلب العديد من المشكلات الواردة في هذه المقالة أيضًا ذكاءً عامًا ، إذا أرادت الآلات حل المشكلات كما يفعل الأشخاص. على سبيل المثال ، حتى المهام المباشرة المحددة ، مثل الترجمة الآلية ، تتطلب أن تقرأ الآلة وتكتب باللغتين (NLP) ، وأن تتبع حجة المؤلف (السبب) ، وأن تعرف ما الذي يتم الحديث عنه (المعرفة) ، وتعيد إنتاج أصل المؤلف بأمانة. النية (الذكاء الاجتماعي). تعتبر مشكلة مثل الترجمة الآلية "مكتملة للذكاء الاصطناعي" ، لأن كل هذه المشكلات تحتاج إلى حل في وقت واحد للوصول إلى أداء الآلة على المستوى البشري.

    لا توجد نظرية أو نموذج موحد يوجه أبحاث الذكاء الاصطناعي. يختلف الباحثون حول العديد من القضايا. [و] بعض الأسئلة التي ظلت دون إجابة هي: هل يجب على الذكاء الاصطناعي محاكاة الذكاء الطبيعي من خلال دراسة علم النفس أو علم الأعصاب؟ أم أن علم الأحياء البشري لا علاقة له بأبحاث الذكاء الاصطناعي مثل بيولوجيا الطيور بالنسبة لهندسة الطيران؟ [23] هل يمكن وصف السلوك الذكي باستخدام مبادئ بسيطة وأنيقة (مثل المنطق أو التحسين)؟ أم أنها تتطلب بالضرورة حل عدد كبير من المشكلات غير ذات الصلة؟ [24]

    علم التحكم الآلي ومحاكاة الدماغ

    في الأربعينيات والخمسينيات من القرن الماضي ، اكتشف عدد من الباحثين العلاقة بين علم الأعصاب ونظرية المعلومات وعلم التحكم الآلي. قام بعضهم ببناء آلات تستخدم الشبكات الإلكترونية لعرض الذكاء البدائي ، مثل سلاحف دبليو جراي والتر ووحش جونز هوبكنز. اجتمع العديد من هؤلاء الباحثين في اجتماعات الجمعية الغائية في جامعة برينستون ونادي النسبة في إنجلترا. [167] بحلول عام 1960 ، تم التخلي عن هذا النهج إلى حد كبير ، على الرغم من إحياء عناصر منه في الثمانينيات.

    رمزي

    عندما أصبح الوصول إلى أجهزة الكمبيوتر الرقمية ممكنًا في منتصف الخمسينيات من القرن الماضي ، بدأت أبحاث الذكاء الاصطناعي في استكشاف إمكانية اختزال الذكاء البشري إلى التلاعب بالرموز. تركز البحث في ثلاث مؤسسات: جامعة كارنيجي ميلون ، وستانفورد ، ومعهد ماساتشوستس للتكنولوجيا ، وكما هو موضح أدناه ، طورت كل واحدة أسلوبها الخاص في البحث. أطلق John Haugeland على هذه المقاربات الرمزية للذكاء الاصطناعي اسم "الذكاء الاصطناعي القديم الجيد" أو "GOFAI". [168] خلال الستينيات ، حققت المناهج الرمزية نجاحًا كبيرًا في محاكاة "التفكير" عالي المستوى في برامج العرض التوضيحي الصغيرة. تم التخلي عن الأساليب القائمة على علم التحكم الآلي أو الشبكات العصبية الاصطناعية أو دفعها إلى الخلفية. [ز] كان الباحثون في الستينيات والسبعينيات مقتنعين بأن الأساليب الرمزية ستنجح في النهاية في إنشاء آلة بذكاء عام اصطناعي واعتبروا هذا هدف مجالهم.

    المحاكاة المعرفية

    درس الاقتصادي هربرت سيمون وألين نيويل مهارات حل المشكلات البشرية وحاولا إضفاء الطابع الرسمي عليها ، ووضع عملهما أسس مجال الذكاء الاصطناعي ، وكذلك العلوم المعرفية وبحوث العمليات وعلوم الإدارة. استخدم فريقهم البحثي نتائج التجارب النفسية لتطوير برامج تحاكي التقنيات التي يستخدمها الناس لحل المشكلات. هذا التقليد ، المتمركز في جامعة كارنيجي ميلون ، سيبلغ ذروته في نهاية المطاف في تطوير الهندسة المعمارية Soar في منتصف الثمانينيات. [169] [170]

    المنطق

    على عكس سايمون ونيويل ، شعر جون مكارثي أن الآلات لا تحتاج إلى محاكاة الفكر البشري ، ولكن بدلاً من ذلك يجب أن تحاول العثور على جوهر التفكير المجرد وحل المشكلات ، بغض النظر عما إذا كان الناس يستخدمون نفس الخوارزميات. [23] ركز مختبره في ستانفورد (سايل) على استخدام المنطق الرسمي لحل مجموعة متنوعة من المشكلات ، بما في ذلك تمثيل المعرفة والتخطيط والتعلم. [171] كان المنطق أيضًا محور العمل في جامعة إدنبرة وأماكن أخرى في أوروبا مما أدى إلى تطوير لغة البرمجة Prolog وعلم البرمجة المنطقية. [172]

    ضد المنطق أو غذر

    وجد الباحثون في معهد ماساتشوستس للتكنولوجيا (مثل مارفن مينسكي وسيمور بابيرت) [173] أن حل المشكلات الصعبة في الرؤية ومعالجة اللغة الطبيعية يتطلب حلولًا مخصصة - جادلوا بأنه لا يوجد مبدأ بسيط وعام (مثل المنطق) من شأنه أن يلتقط جميع جوانب الذكاء سلوك. وصف روجر شانك مناهجهم "المناهضة للمنطق" بأنها "قذرة" (على عكس النماذج "الأنيقة" في جامعة كارنيجي ميلون وستانفورد). [24] قواعد المعرفة العامة (مثل دوج لينات Cyc) هي مثال على الذكاء الاصطناعي "الغذر" ، حيث يجب أن يتم بناؤها يدويًا ، وهو مفهوم معقد في كل مرة. [174]

    قائم على المعرفة

    عندما أصبحت أجهزة الكمبيوتر ذات الذكريات الكبيرة متاحة في حوالي عام 1970 ، بدأ الباحثون من جميع التقاليد الثلاثة في بناء المعرفة في تطبيقات الذكاء الاصطناعي. [175] أدت "ثورة المعرفة" هذه إلى تطوير ونشر أنظمة خبيرة (قدمها إدوارد فيجينباوم) ، وهي أول شكل ناجح حقًا لبرمجيات الذكاء الاصطناعي. [52] أحد المكونات الرئيسية لبنية النظام لجميع الأنظمة الخبيرة هو قاعدة المعرفة ، التي تخزن الحقائق والقواعد التي توضح الذكاء الاصطناعي. [176] كانت ثورة المعرفة مدفوعة أيضًا بإدراك أن كميات هائلة من المعرفة ستكون مطلوبة من قبل العديد من تطبيقات الذكاء الاصطناعي البسيطة.

    شبه رمزي

    بحلول الثمانينيات من القرن الماضي ، بدا أن التقدم في الذكاء الاصطناعي الرمزي قد توقف ، واعتقد الكثير أن الأنظمة الرمزية لن تكون قادرة أبدًا على تقليد جميع عمليات الإدراك البشري ، وخاصة الإدراك ، والروبوتات ، والتعلم ، والتعرف على الأنماط. بدأ عدد من الباحثين في النظر في مناهج "شبه رمزية" لمشاكل معينة في الذكاء الاصطناعي. [25] تمكنت الطرق شبه الرمزية من الاقتراب من الذكاء دون تمثيلات محددة للمعرفة.

    الذكاء المجسد

    وهذا يشمل الذكاء الاصطناعي المتجسد والموضع والقائم على السلوك والحديث. رفض الباحثون من مجال الروبوتات ذي الصلة ، مثل رودني بروكس ، الذكاء الاصطناعي الرمزي وركزوا على المشكلات الهندسية الأساسية التي تسمح للروبوتات بالحركة والبقاء. [177] أعاد عملهم إحياء وجهة النظر غير الرمزية لباحثي علم التحكم الآلي الأوائل في الخمسينيات من القرن الماضي وأعادوا تقديم استخدام نظرية التحكم في الذكاء الاصطناعي. تزامن ذلك مع تطور أطروحة العقل المجسدة في مجال العلوم المعرفية ذات الصلة: فكرة أن جوانب الجسم (مثل الحركة والإدراك والتصور) مطلوبة للذكاء العالي.

    ضمن الروبوتات التنموية ، يتم تطوير مناهج التعلم التنموي للسماح للروبوتات بتجميع ذخيرة من المهارات الجديدة من خلال الاستكشاف الذاتي المستقل ، والتفاعل الاجتماعي مع المعلمين البشريين ، واستخدام آليات التوجيه (التعلم النشط ، والنضج ، والتآزر الحركي ، وما إلى ذلك). [178] [179] [180] [181]

    الذكاء الحسابي والحوسبة اللينة

    أعاد ديفيد روميلهارت وآخرون الاهتمام بالشبكات العصبية و "الترابطية" في منتصف الثمانينيات. [182] الشبكات العصبية الاصطناعية هي مثال على الحوسبة اللينة - فهي حلول لمشاكل لا يمكن حلها بيقين منطقي كامل ، وحيث غالبًا ما يكون الحل التقريبي كافياً. تشمل مناهج الحوسبة اللينة الأخرى للذكاء الاصطناعي الأنظمة الضبابية ونظرية النظام الرمادي والحساب التطوري والعديد من الأدوات الإحصائية. يتم دراسة تطبيق الحوسبة اللينة على الذكاء الاصطناعي بشكل جماعي من خلال الانضباط الناشئ للذكاء الحسابي. [183]

    الإحصاء

    لقد تعثرت الكثير من GOFAI التقليدية مخصصة تصحيحات للحساب الرمزي الذي نجح في نماذج لعبهم الخاصة لكنهم فشلوا في التعميم على نتائج العالم الحقيقي. ومع ذلك ، في حوالي التسعينيات ، اعتمد باحثو الذكاء الاصطناعي أدوات رياضية متطورة ، مثل نماذج ماركوف المخفية (HMM) ، ونظرية المعلومات ، ونظرية قرار بايز المعيارية لمقارنة أو توحيد البنى المتنافسة. سمحت اللغة الرياضية المشتركة بمستوى عالٍ من التعاون مع مجالات أكثر رسوخًا (مثل الرياضيات أو الاقتصاد أو أبحاث العمليات). [ح] بالمقارنة مع GOFAI ، اكتسبت تقنيات "التعلم الإحصائي" الجديدة مثل HMM والشبكات العصبية مستويات أعلى من الدقة في العديد من المجالات العملية مثل التنقيب عن البيانات ، دون اكتساب بالضرورة فهم دلالي لمجموعات البيانات. أدت النجاحات المتزايدة مع بيانات العالم الواقعي إلى زيادة التركيز على مقارنة الأساليب المختلفة مقابل بيانات الاختبار المشتركة لمعرفة النهج الذي يؤدي بشكل أفضل في سياق أوسع من ذلك الذي توفره نماذج الألعاب المتميزة. غالبًا ما تكون نتائج التجارب في الوقت الحاضر قابلة للقياس بدقة ، وفي بعض الأحيان (بصعوبة) يمكن استنساخها. [54] [184] تقنيات التعلم الإحصائي المختلفة لها قيود مختلفة على سبيل المثال ، لا تستطيع HMM الأساسية نمذجة التركيبات الممكنة اللانهائية للغة الطبيعية. [185] لاحظ النقاد أن التحول من GOFAI إلى التعلم الإحصائي غالبًا ما يكون أيضًا تحولًا بعيدًا عن الذكاء الاصطناعي القابل للتفسير. في أبحاث AGI ، يحذر بعض العلماء من الاعتماد المفرط على التعلم الإحصائي ، ويجادلون بأن البحث المستمر في GOFAI سيظل ضروريًا لتحقيق الذكاء العام. [186] [187]

    تكامل المناهج

    الذكاء الاصطناعي وثيق الصلة بأي مهمة فكرية. [192] تقنيات الذكاء الاصطناعي الحديثة منتشرة [193] وهي كثيرة جدًا بحيث لا يمكن إدراجها هنا. في كثير من الأحيان ، عندما تصل التقنية إلى الاستخدام السائد ، لم تعد تعتبر ذكاءً اصطناعيًا ، توصف هذه الظاهرة بأنها تأثير الذكاء الاصطناعي. [194]

    تشمل الأمثلة البارزة للذكاء الاصطناعي المركبات ذاتية القيادة (مثل الطائرات بدون طيار والسيارات ذاتية القيادة) ، والتشخيص الطبي ، وخلق الفن (مثل الشعر) ، وإثبات النظريات الرياضية ، وممارسة الألعاب (مثل الشطرنج أو Go) ، ومحركات البحث (مثل بحث Google) ، والمساعدين عبر الإنترنت (مثل Siri) ، والتعرف على الصور في الصور ، وتصفية البريد العشوائي ، والتنبؤ بتأخير الرحلات الجوية ، [195] توقع القرارات القضائية ، [196] استهداف الإعلانات عبر الإنترنت ، [192] [197] [198] والطاقة تخزين [199]

    مع تجاوز مواقع التواصل الاجتماعي للتلفزيون كمصدر للأخبار للشباب والمؤسسات الإخبارية التي تعتمد بشكل متزايد على منصات التواصل الاجتماعي لتوليد التوزيع ، [200] يستخدم كبار الناشرين الآن تقنية الذكاء الاصطناعي (AI) لنشر القصص بشكل أكثر فعالية وتوليد كميات أكبر من حركة المرور. [201]

    يمكن للذكاء الاصطناعي أيضًا إنتاج تقنية Deepfakes ، وهي تقنية لتغيير المحتوى. تقارير ZDNet ، "إنها تقدم شيئًا لم يحدث بالفعل" ، على الرغم من أن 88٪ من الأمريكيين يعتقدون أن تقنية Deepfakes يمكن أن تسبب ضررًا أكثر من نفعها ، إلا أن 47٪ فقط منهم يعتقدون أنه يمكن استهدافهم. كما أدى ازدهار العام الانتخابي إلى فتح الخطاب العام أمام تهديدات مقاطع الفيديو الخاصة بوسائل الإعلام السياسية المزيفة. [202]

    هناك ثلاثة أسئلة فلسفية تتعلق بالذكاء الاصطناعي: [203]

    1. ما إذا كان الذكاء الاصطناعي العام ممكنًا سواء كانت الآلة قادرة على حل أي مشكلة يمكن للإنسان حلها باستخدام الذكاء ، أو إذا كانت هناك حدود صارمة لما يمكن للآلة إنجازه.
    2. ما إذا كانت الآلات الذكية خطيرة ، فكيف يمكن للبشر التأكد من أن الآلات تتصرف بشكل أخلاقي وأن يتم استخدامها بشكل أخلاقي.
    3. ما إذا كان يمكن للآلة أن تمتلك عقلًا ووعيًا وحالات عقلية بنفس المعنى الذي يفعله البشر إذا كان بإمكان الآلة أن تكون واعية ، وبالتالي تستحق حقوقًا معينة - وإذا كان بإمكان الآلة التسبب في ضرر عمدًا.

    حدود الذكاء الاصطناعي العام

    الآلات الأخلاقية

    تتمتع الآلات ذات الذكاء بالقدرة على استخدام ذكائها لمنع الضرر وتقليل المخاطر التي قد تكون لديها القدرة على استخدام التفكير الأخلاقي لاختيار أفعالهم في العالم بشكل أفضل. على هذا النحو ، هناك حاجة لصنع السياسات لوضع سياسات وتنظيم الذكاء الاصطناعي والروبوتات. [214] البحث في هذا المجال يشمل أخلاقيات الآلة ، والوكلاء الأخلاقيين المصطنعين ، والذكاء الاصطناعي الودود ، والمناقشة نحو بناء إطار عمل لحقوق الإنسان قيد المناقشة أيضًا. [215]

    جوزيف وايزنباوم في قوة الكمبيوتر والعقل البشري كتب أن تطبيقات الذكاء الاصطناعي لا يمكنها ، بحكم تعريفها ، محاكاة التعاطف البشري الحقيقي بنجاح وأن استخدام تقنية الذكاء الاصطناعي في مجالات مثل خدمة العملاء أو العلاج النفسي [ي] كان مضللاً للغاية. كان وايزنباوم منزعجًا أيضًا من أن باحثي الذكاء الاصطناعي (وبعض الفلاسفة) كانوا على استعداد لرؤية العقل البشري على أنه ليس أكثر من برنامج كمبيوتر (وهو منصب يُعرف الآن باسم الحوسبة). تشير هذه النقاط إلى Weizenbaum إلى أن أبحاث الذكاء الاصطناعي تقلل من قيمة الحياة البشرية. [217]

    عوامل أخلاقية اصطناعية

    قدم ويندل والاش مفهوم العوامل الأخلاقية الاصطناعية (AMA) في كتابه الآلات الأخلاقية [218] بالنسبة للاش ، أصبحت AMA جزءًا من المشهد البحثي للذكاء الاصطناعي كما يسترشد بسؤالين محوريين حددهما على أنهما "هل تريد البشرية أن تتخذ أجهزة الكمبيوتر قرارات أخلاقية" [219] و "هل يمكن أن تكون الروبوتات حقًا أخلاقي". [220] بالنسبة للاش ، فإن السؤال لا يتمحور حول قضية سواء، ما اذا يمكن للآلات إثبات ما يعادل السلوك الأخلاقي ، على عكس القيود الذي قد يضعه المجتمع على تطوير AMAs. [221]

    أخلاقيات الآلة

    يهتم مجال أخلاقيات الآلة بإعطاء الآلات مبادئ أخلاقية ، أو إجراء لاكتشاف طريقة لحل المعضلات الأخلاقية التي قد تواجههم ، وتمكينهم من العمل بطريقة مسؤولة أخلاقياً من خلال اتخاذ قراراتهم الأخلاقية. [222] تم تحديد المجال في ندوة AAAI لخريف 2005 حول أخلاقيات الماكينة: "ركزت الأبحاث السابقة المتعلقة بالعلاقة بين التكنولوجيا والأخلاق إلى حد كبير على الاستخدام المسؤول وغير المسؤول للتكنولوجيا من قبل البشر ، مع اهتمام عدد قليل من الأشخاص بمدى اهتمام البشر يجب أن تتعامل الكائنات مع الآلات. في جميع الحالات ، شارك البشر فقط في التفكير الأخلاقي. لقد حان الوقت لإضافة بُعد أخلاقي على الأقل إلى بعض الآلات. التطورات في استقلالية الآلة ، تستلزم ذلك. على عكس قرصنة الكمبيوتر ، وقضايا خصائص البرامج ، وقضايا الخصوصية وغيرها من الموضوعات التي تُنسب عادةً إلى أخلاقيات الكمبيوتر ، فإن أخلاقيات الآلة تهتم بسلوك الآلات تجاه المستخدمين البشر والآلات الأخرى. البحث في أخلاقيات الآلة هو مفتاح لتخفيف المخاوف بشأن الأنظمة المستقلة - يمكن القول بأن فكرة الآلات المستقلة بدون هذا البعد هو أصل كل مخاوف تتعلق بالذكاء الآلي.علاوة على ذلك ، يمكن أن يمكّن التحقيق في أخلاقيات الآلة من اكتشاف المشكلات المتعلقة بالنظريات الأخلاقية الحالية ، مما يؤدي إلى تطوير تفكيرنا حول الأخلاق. " يمكن العثور على الحقل في النسخة المجمعة "أخلاقيات الماكينة" [222] التي تنبع من ندوة AAAI خريف 2005 حول أخلاقيات الماكينة. [223]

    الذكاء الاصطناعي الخبيث والودي

    يعتقد العالم السياسي تشارلز ت. روبين أن الذكاء الاصطناعي لا يمكن تصميمه أو ضمان كونه خيرًا. [224] يجادل بأن "أي إحسان متقدم بما فيه الكفاية قد لا يمكن تمييزه عن الحقد." لا ينبغي أن يفترض البشر أن الآلات أو الروبوتات ستعاملنا بشكل إيجابي لأنه لا يوجد بداهة سبب للاعتقاد بأنهم سيكونون متعاطفين مع نظامنا الأخلاقي ، الذي تطور جنبًا إلى جنب مع علم الأحياء الخاص بنا (الذي لن تشاركه أنظمة الذكاء الاصطناعي). قد لا تقرر البرامج فائقة الذكاء بالضرورة دعم الوجود المستمر للبشرية وسيكون من الصعب للغاية إيقافها. كما بدأ حديثًا مناقشة هذا الموضوع في المنشورات الأكاديمية كمصدر حقيقي للمخاطر على الحضارة والبشر وكوكب الأرض.

    أحد الاقتراحات للتعامل مع هذا هو التأكد من أن أول ذكاء اصطناعي ذكي بشكل عام هو "ذكاء اصطناعي صديق" وسيكون قادرًا على التحكم في أنظمة الذكاء الاصطناعي المطورة لاحقًا. يتساءل البعض عما إذا كان هذا النوع من الشيكات يمكن أن يظل في مكانه بالفعل.

    كتب الباحث الرائد في مجال الذكاء الاصطناعي ، رودني بروكس ، "أعتقد أنه من الخطأ أن تقلق بشأن تطويرنا للذكاء الاصطناعي الخبيث في أي وقت خلال مئات السنين القادمة. أعتقد أن القلق ينبع من خطأ جوهري في عدم التمييز بين التطورات الأخيرة الحقيقية جدًا. في جانب معين من الذكاء الاصطناعي وضخامة وتعقيد بناء ذكاء إرادي واعي ". [225]

    الأسلحة الفتاكة المستقلة تثير القلق. حاليًا ، يبحث أكثر من 50 دولة عن روبوتات ساحة المعركة ، بما في ذلك الولايات المتحدة والصين وروسيا والمملكة المتحدة. يريد العديد من الأشخاص القلقين بشأن مخاطر الذكاء الاصطناعي الفائق أيضًا الحد من استخدام الجنود الاصطناعيين والطائرات بدون طيار. [226]

    وعي الآلة والوعي والعقل

    إذا كان نظام الذكاء الاصطناعي يكرر جميع الجوانب الرئيسية للذكاء البشري ، فهل سيكون هذا النظام أيضًا واعيًا - هل سيكون لديه عقل لديه تجارب واعية؟ يرتبط هذا السؤال ارتباطًا وثيقًا بالمشكلة الفلسفية المتعلقة بطبيعة الوعي البشري ، والتي يشار إليها عمومًا باسم مشكلة الوعي الصعبة.

    وعي - إدراك

    حدد ديفيد تشالمرز مشكلتين في فهم العقل ، أسماها مشاكل الوعي "الصعبة" و "السهلة". [227] تكمن المشكلة السهلة في فهم كيفية معالجة الدماغ للإشارات ووضع الخطط والتحكم في السلوك. المشكلة الصعبة هي شرح كيفية ذلك يشعر أو لماذا يجب أن تشعر بأي شيء على الإطلاق. من السهل شرح معالجة المعلومات البشرية ، ولكن يصعب تفسير التجربة الذاتية البشرية.

    على سبيل المثال ، ضع في اعتبارك ما يحدث عندما يتم عرض حامل لوني على شخص ما وتحديده ، قائلاً "إنه أحمر". تتطلب المشكلة السهلة فقط فهم الآلية الموجودة في الدماغ التي تجعل من الممكن لأي شخص أن يعرف أن حامل اللون أحمر. المشكلة الصعبة هي أن الناس يعرفون شيئًا آخر أيضًا - وهم يعرفون أيضًا كيف يبدو اللون الأحمر. (ضع في اعتبارك أن الشخص المولود كفيفًا يمكنه أن يعرف أن شيئًا ما أحمر دون معرفة شكل اللون الأحمر.) [ك] يعلم الجميع وجود تجربة ذاتية ، لأنهم يفعلون ذلك كل يوم (على سبيل المثال ، يعرف جميع المبصرين شكل اللون الأحمر). تكمن المشكلة الصعبة في شرح كيف يخلقه الدماغ ، ولماذا يوجد ، وكيف يختلف عن المعرفة والجوانب الأخرى للدماغ.

    الحوسبية والوظيفية

    الحوسبة هي الموقف في فلسفة العقل بأن العقل البشري أو الدماغ البشري (أو كليهما) هو نظام معالجة المعلومات وأن التفكير هو شكل من أشكال الحوسبة. [228] تجادل الحوسبة بأن العلاقة بين العقل والجسد مماثلة أو مطابقة للعلاقة بين البرمجيات والأجهزة ، وبالتالي قد تكون حلاً لمشكلة العقل والجسد. هذا الموقف الفلسفي مستوحى من عمل باحثي الذكاء الاصطناعي والعلماء الإدراكيين في الستينيات ، وقد اقترحه في الأصل الفلاسفة جيري فودور وهيلاري بوتنام.

    فرضية قوية للذكاء الاصطناعي

    ينص الموقف الفلسفي الذي أطلقه جون سيرل على "الذكاء الاصطناعي القوي" على ما يلي: "الكمبيوتر المبرمج بشكل مناسب مع المدخلات والمخرجات الصحيحة سيكون له بالتالي عقل بنفس المعنى الذي يمتلكه البشر." [l] يرد سيرل على هذا التأكيد بحجته في الغرفة الصينية ، والتي تطلب منا أن ننظر داخل الكمبيوتر ومحاولة العثور على مكان "العقل". [230]

    حقوق الروبوت

    إذا كان من الممكن إنشاء آلة لديها ذكاء ، فهل يمكنها أيضًا يشعر؟ إذا شعرت ، فهل لها نفس حقوق الإنسان؟ هذه القضية ، التي تُعرف الآن باسم "حقوق الروبوت" ، يتم النظر فيها حاليًا ، على سبيل المثال ، من قبل معهد كاليفورنيا للمستقبل ، على الرغم من أن العديد من النقاد يعتقدون أن المناقشة سابقة لأوانها. [231] [232] يجادل بعض منتقدي ما بعد الإنسانية بأن أي حقوق افتراضية للروبوت ستقع في نطاق حقوق الحيوان وحقوق الإنسان. [233] تمت مناقشة الموضوع بعمق في الفيلم الوثائقي لعام 2010 التوصيل وأمبير الصلاة، [234] والعديد من وسائط الخيال العلمي مثل Star Trek Next Generation ، بشخصية Commander Data ، الذي كافح ليتم تفكيكه من أجل البحث ، وأراد "أن يصبح إنسانًا" ، والصور المجسمة الآلية في Voyager.

    ذكاء خارق

    هل هناك حدود لما يمكن أن تكون عليه الآلات الذكية - أو الهجينة بين الإنسان والآلة؟ الذكاء الخارق ، الذكاء المفرط ، أو الذكاء الخارق هو عامل افتراضي يمتلك ذكاءً يفوق ذكاء العقل البشري الأكثر سطوعًا والأكثر موهبة. ذكاء خارق قد يشير أيضًا إلى شكل أو درجة الذكاء التي يمتلكها مثل هذا الوكيل. [157]

    التفرد التكنولوجي

    إذا أنتج البحث في الذكاء الاصطناعي القوي برنامجًا ذكيًا بدرجة كافية ، فقد يكون قادرًا على إعادة برمجة نفسه وتحسينه. سيكون البرنامج المحسن أفضل في تحسين نفسه ، مما يؤدي إلى تحسين ذاتي متكرر. [235] وبالتالي يمكن للذكاء الجديد أن يزيد أضعافًا مضاعفة ويتفوق على البشر بشكل كبير. أطلق كاتب الخيال العلمي فيرنور فينج على هذا السيناريو اسم "التفرد". [236] التفرد التكنولوجي يحدث عندما يؤدي تسريع التقدم في التقنيات إلى إحداث تأثير جامح حيث يتجاوز الذكاء الاصطناعي القدرة والتحكم الفكري البشري ، وبالتالي تغيير الحضارة بشكل جذري أو حتى إنهاؤها. نظرًا لأن قدرات مثل هذا الذكاء قد يكون من المستحيل فهمها ، فإن التفرد التكنولوجي هو حدث لا يمكن التنبؤ بعده بالأحداث أو حتى لا يمكن فهمها. [236] [157]

    استخدم راي كورزويل قانون مور (الذي يصف التحسن الأسي الذي لا هوادة فيه في التكنولوجيا الرقمية) لحساب أن أجهزة الكمبيوتر المكتبية ستتمتع بنفس قوة المعالجة مثل العقول البشرية بحلول عام 2029 ويتوقع أن التفرد سيحدث في عام 2045. [236]

    ما بعد الإنسانية

    توقع مصمم الروبوتات هانز مورافيك ، وعالم علم الإنترنت كيفن وارويك ، والمخترع راي كورزويل أن البشر والآلات سوف يندمجون في المستقبل ليصبحوا سايبورغ أكثر قدرة وقوة من أي منهما. [237] هذه الفكرة ، التي تسمى ما بعد الإنسانية ، لها جذور في ألدوس هكسلي وروبرت إيتنجر.

    يجادل إدوارد فريدكين بأن "الذكاء الاصطناعي هو المرحلة التالية في التطور" ، وهي فكرة اقترحها صموئيل بتلر "داروين بين الآلات" منذ عام 1863 ، ووسعها جورج دايسون في كتابه الذي يحمل نفس الاسم في عام 1998. [238]

    الآثار الاقتصادية طويلة المدى للذكاء الاصطناعي غير مؤكدة. أظهر مسح لخبراء الاقتصاد عدم اتفاق حول ما إذا كان الاستخدام المتزايد للروبوتات والذكاء الاصطناعي سيؤدي إلى زيادة كبيرة في البطالة طويلة الأجل ، لكنهم يتفقون عمومًا على أنه يمكن أن يكون صافي فائدة ، إذا تمت إعادة توزيع مكاسب الإنتاجية. [239] ترى دراسة أجرتها شركة PricewaterhouseCoopers عام 2017 أن جمهورية الصين الشعبية تحقق أكبر قدر من الاستفادة اقتصاديًا من الذكاء الاصطناعي بنسبة 26.1٪ من الناتج المحلي الإجمالي حتى عام 2030. الفوائد ، بما في ذلك "تحسين الرعاية الصحية (مثل جعل التشخيص أكثر دقة ، وتمكين الوقاية بشكل أفضل من الأمراض) ، وزيادة كفاءة الزراعة ، والمساهمة في التخفيف من تغير المناخ والتكيف معه ، [و] تحسين كفاءة أنظمة الإنتاج من خلال الصيانة التنبؤية" ، مع الاعتراف المخاطر المحتملة. [193]

    العلاقة بين الأتمتة والتوظيف معقدة. بينما تقضي الأتمتة على الوظائف القديمة ، فإنها تخلق أيضًا وظائف جديدة من خلال تأثيرات الاقتصاد الجزئي والاقتصاد الكلي. [241] على عكس موجات الأتمتة السابقة ، قد يتم التخلص من العديد من وظائف الطبقة المتوسطة بواسطة الذكاء الاصطناعي الإيكونوميست ينص على أن "القلق من أن الذكاء الاصطناعي يمكن أن يفعله لوظائف ذوي الياقات البيضاء مثلما فعلته القوة البخارية لذوي الياقات الزرقاء أثناء الثورة الصناعية" "يستحق أن يؤخذ على محمل الجد". [242] تختلف التقديرات الشخصية للمخاطر على نطاق واسع على سبيل المثال ، يقدر مايكل أوزبورن وكارل بينيديكت فراي أن 47٪ من الوظائف الأمريكية معرضة "لخطر كبير" من الأتمتة المحتملة ، بينما يصنف تقرير منظمة التعاون الاقتصادي والتنمية 9٪ فقط من الوظائف الأمريكية على أنها "عالية المخاطر ". [243] [244] [245] تتراوح الوظائف المعرضة لخطر شديد من المساعدين القانونيين إلى طهاة الوجبات السريعة ، بينما من المرجح أن يزداد الطلب على الوظائف للمهن المتعلقة بالرعاية التي تتراوح من الرعاية الصحية الشخصية إلى رجال الدين. [246] يذهب المؤلف مارتن فورد وآخرون إلى أبعد من ذلك ويقولون أن العديد من الوظائف روتينية ومتكررة و (بالنسبة للذكاء الاصطناعي) يمكن التنبؤ بها ، وتحذر شركة فورد من أن هذه الوظائف قد تتم أتمتتها في العقدين المقبلين ، وأن العديد من الوظائف الجديدة قد لا تكون كذلك. أن تكون "في متناول الأشخاص ذوي القدرات المتوسطة" ، حتى مع إعادة التدريب. يشير الاقتصاديون إلى أن التكنولوجيا في الماضي كانت تميل إلى زيادة العمالة الإجمالية بدلاً من خفضها ، لكنهم يعترفون بأننا "في منطقة مجهولة" مع الذكاء الاصطناعي. [35]

    كانت الآثار السلبية المحتملة للذكاء الاصطناعي والأتمتة قضية رئيسية في حملة أندرو يانغ الرئاسية لعام 2020 في الولايات المتحدة. [247] أعرب إيراكلي بيريدزي ، رئيس مركز الذكاء الاصطناعي والروبوتات في معهد الأمم المتحدة لبحوث الجريمة والعدالة ، الأمم المتحدة ، عن "أعتقد أن التطبيقات الخطيرة للذكاء الاصطناعي ، من وجهة نظري ، قد تكون مجرمين أو منظمات إرهابية كبيرة تستخدمه لتعطيل عمليات كبيرة أو ببساطة تسبب ضررًا تامًا. [قد يتسبب الإرهابيون في ضرر] من خلال الحرب الرقمية ، أو قد يكون مزيجًا من الروبوتات والطائرات بدون طيار والذكاء الاصطناعي وأشياء أخرى أيضًا قد تكون خطيرة حقًا. وبالطبع ، تأتي المخاطر الأخرى من أشياء مثل فقدان الوظائف. إذا كان لدينا عدد هائل من الأشخاص يفقدون وظائفهم ولم يجدوا حلاً ، فسيكون ذلك خطيرًا للغاية. أشياء مثل أنظمة الأسلحة الفتاكة المستقلة يجب أن تحكم بشكل صحيح - وإلا فهناك احتمال كبير لسوء الاستخدام. " [248]

    مخاطر الذكاء الاصطناعي الضيق

    الاستخدام الواسع للذكاء الاصطناعي قد يكون له عواقب غير مقصودة خطيرة أو غير مرغوب فيها. وصف علماء من معهد Future of Life ، من بين آخرين ، بعض الأهداف البحثية قصيرة المدى لمعرفة كيف يؤثر الذكاء الاصطناعي على الاقتصاد ، والقوانين والأخلاقيات التي ينطوي عليها الذكاء الاصطناعي وكيفية تقليل مخاطر أمن الذكاء الاصطناعي. على المدى الطويل ، اقترح العلماء الاستمرار في تحسين الوظيفة مع تقليل مخاطر الأمان المحتملة التي تأتي مع التقنيات الجديدة. [249]

    يشعر البعض بالقلق بشأن التحيز الخوارزمي ، حيث قد تصبح برامج الذكاء الاصطناعي متحيزة عن غير قصد بعد معالجة البيانات التي تظهر التحيز. [٢٥٠] للخوارزميات بالفعل تطبيقات عديدة في الأنظمة القانونية. مثال على ذلك هو كومباس ، وهو برنامج تجاري تستخدمه المحاكم الأمريكية على نطاق واسع لتقييم احتمال عودة المدعى عليه إلى الإجرام. تدعي ProPublica أن متوسط ​​مستوى مخاطر النكوص الذي حددته كومباس للمدعى عليهم من السود أعلى بكثير من متوسط ​​مستوى المخاطر الذي حددته كومباس للمدعى عليهم البيض. [251]

    مخاطر الذكاء الاصطناعي العام

    أعرب الفيزيائي ستيفن هوكينج ، ومؤسس شركة مايكروسوفت بيل جيتس ، وأستاذ التاريخ يوفال نوح هراري ، ومؤسس سبيس إكس ، إيلون ماسك ، عن مخاوفهم بشأن إمكانية تطور الذكاء الاصطناعي لدرجة أن البشر لا يستطيعون التحكم فيه ، مع نظريات هوكينج بأن هذا يمكن أن "يحدد النهاية. للجنس البشري ". [252] [253] [254] [255]

    يمكن أن يؤدي تطوير الذكاء الاصطناعي الكامل إلى نهاية الجنس البشري. بمجرد أن يطور البشر ذكاءً اصطناعيًا ، فإنه سينطلق من تلقاء نفسه ويعيد تصميم نفسه بمعدل متزايد باستمرار. البشر ، المحدودين بسبب التطور البيولوجي البطيء ، لا يستطيعون التنافس وسيتم استبدالهم.

    في كتابه ذكاء خارقيقدم الفيلسوف نيك بوستروم حجة مفادها أن الذكاء الاصطناعي سيشكل تهديدًا للبشرية. يجادل بأن الذكاء الاصطناعي الذكي بدرجة كافية ، إذا اختار إجراءات تستند إلى تحقيق هدف ما ، فسوف يُظهر سلوكًا متقاربًا مثل الحصول على الموارد أو حماية نفسه من الانغلاق. إذا كانت أهداف الذكاء الاصطناعي هذه لا تعكس الإنسانية بالكامل - أحد الأمثلة على ذلك هو الذكاء الاصطناعي الذي تم إخباره بحساب أكبر عدد ممكن من أرقام pi - فقد يلحق الضرر بالبشرية من أجل الحصول على المزيد من الموارد أو منع نفسه من الانغلاق ، وفي النهاية تحقيق هدفه بشكل أفضل . يؤكد بوستروم أيضًا على صعوبة نقل القيم الإنسانية بالكامل إلى ذكاء اصطناعي متقدم. يستخدم المثال الافتراضي لإعطاء الذكاء الاصطناعي هدفًا لجعل البشر يبتسمون لتوضيح محاولة مضللة. يجادل بوستروم أنه إذا أصبح الذكاء الاصطناعي في هذا السيناريو فائق الذكاء ، فقد يلجأ إلى الأساليب التي قد يجدها معظم البشر مرعبة ، مثل إدخال "أقطاب كهربائية في عضلات وجه البشر لإحداث ابتسامات ثابتة ومشرقة" لأن ذلك سيكون وسيلة فعالة. وسيلة لتحقيق هدفها المتمثل في جعل البشر يبتسمون. [257] في كتابه متوافق مع البشر، الباحث في الذكاء الاصطناعي ستيوارت جيه راسل ، يردد بعض مخاوف بوستروم بينما يقترح أيضًا نهجًا لتطوير آلات مفيدة مثبتة تركز على عدم اليقين والإذعان للبشر ، [258]: 173 ربما يتضمن التعلم المعزز العكسي. [258]: 191–193

    أدى القلق بشأن مخاطر الذكاء الاصطناعي إلى بعض التبرعات والاستثمارات رفيعة المستوى. خصصت مجموعة من عمالقة التكنولوجيا البارزين ، بما في ذلك Peter Thiel و Amazon Web Services و Musk ، مليار دولار لشركة OpenAI ، وهي شركة غير ربحية تهدف إلى دعم تطوير الذكاء الاصطناعي المسؤول. [259] آراء الخبراء في مجال الذكاء الاصطناعي مختلطة ، مع وجود عدد كبير من الكسور المعنية وغير المهتمة بالمخاطر الناجمة عن الذكاء الاصطناعي الخارق في نهاية المطاف. [260] يعتقد قادة صناعة التكنولوجيا الآخرون أن الذكاء الاصطناعي مفيد في شكله الحالي وسيستمر في مساعدة البشر. صرح الرئيس التنفيذي لشركة Oracle Mark Hurd أن الذكاء الاصطناعي "سيخلق بالفعل المزيد من الوظائف ، وليس وظائف أقل" حيث ستكون هناك حاجة إلى البشر لإدارة أنظمة الذكاء الاصطناعي. [261] يعتقد مارك زوكربيرج ، الرئيس التنفيذي لفيسبوك ، أن الذكاء الاصطناعي "سيفتح قدرًا هائلاً من الأشياء الإيجابية" ، مثل علاج الأمراض وزيادة سلامة السيارات ذاتية القيادة. [262] في يناير 2015 ، تبرع ماسك بمبلغ 10 ملايين دولار لمعهد Future of Life لتمويل الأبحاث حول فهم عملية صنع القرار في الذكاء الاصطناعي. هدف المعهد هو "تنمية الحكمة التي ندير بها" القوة المتزايدة للتكنولوجيا. كما يمول ماسك الشركات التي تعمل على تطوير الذكاء الاصطناعي مثل DeepMind و Vicarious "لتراقب فقط ما يحدث للذكاء الاصطناعي. [263] أعتقد أنه من المحتمل أن تكون هناك نتيجة خطيرة هناك." [264] [265]

    من أجل إدراك خطر الذكاء الاصطناعي المتقدم غير المتحكم فيه ، سيتعين على الذكاء الاصطناعي الافتراضي أن يتغلب على الإنسانية بأكملها أو يتفوق عليها ، وهو ما يجادل أقلية من الخبراء بأنه احتمال بعيد بما يكفي في المستقبل حتى لا يستحق البحث. [266] [267] تدور الحجج المضادة الأخرى حول كون الإنسان ذو قيمة جوهرية أو متقاربة من منظور الذكاء الاصطناعي. [268]

    تنظيم الذكاء الاصطناعي هو تطوير سياسات وقوانين القطاع العام لتعزيز وتنظيم الذكاء الاصطناعي (AI) [269] [270] وبالتالي فهو مرتبط بالتنظيم الأوسع للخوارزميات. يعد المشهد التنظيمي والسياسي للذكاء الاصطناعي قضية ناشئة في الولايات القضائية على مستوى العالم ، بما في ذلك في الاتحاد الأوروبي. [271] يعتبر التنظيم ضروريًا لتشجيع الذكاء الاصطناعي وإدارة المخاطر المرتبطة به. [272] [273] يمكن أيضًا اعتبار تنظيم الذكاء الاصطناعي من خلال آليات مثل مجالس المراجعة وسيلة اجتماعية للتعامل مع مشكلة التحكم في الذكاء الاصطناعي. [274]

    نظرًا للمخاوف بشأن استغلال البيانات ، طور الاتحاد الأوروبي أيضًا سياسة ذكاء اصطناعي ، مع مجموعة عمل تدرس طرقًا لضمان الثقة في استخدام الذكاء الاصطناعي. تم إصدارها في ورقتين أبيضتين بدا أنهما لم يتم ملاحظتهما في خضم جائحة COVID-19. تسمى إحدى السياسات المتعلقة بالذكاء الاصطناعي النهج الأوروبي للتميز والثقة. [275] [276] [277]

    ظهرت الكائنات المصطنعة القادرة على التفكير كأجهزة لسرد القصص منذ العصور القديمة ، [37] وكانت موضوعًا ثابتًا في الخيال العلمي.

    بدأ مجاز شائع في هذه الأعمال مع ماري شيلي فرانكشتاين، حيث يصبح الخليقة البشرية تهديدًا لأسيادها. ويشمل ذلك أعمالًا مثل أعمال آرثر سي كلارك وستانلي كوبريك 2001: رحلة فضائية (كلاهما 1968) ، مع HAL 9000 ، الكمبيوتر القاتل المسؤول عن ديسكفري واحد سفينة الفضاء ، وكذلك الموقف او المنهى (1984) و المصفوفة (1999). في المقابل ، فإن الروبوتات المخلصة النادرة مثل Gort from اليوم الذي وقفت فيه الأرض ساكنة (1951) والأسقف من كائنات فضائية (1986) أقل شهرة في الثقافة الشعبية. [278]

    قدم إسحاق أسيموف القوانين الثلاثة للروبوتات في العديد من الكتب والقصص ، وأبرزها سلسلة "Multivac" التي تدور حول جهاز كمبيوتر فائق الذكاء يحمل نفس الاسم. غالبًا ما تُطرح قوانين أسيموف أثناء المناقشات العامة لأخلاقيات الآلة [279] في حين أن جميع باحثي الذكاء الاصطناعي تقريبًا على دراية بقوانين أسيموف من خلال الثقافة الشعبية ، فهم يعتبرون عمومًا القوانين غير مجدية لأسباب عديدة ، أحدها غموضها. [280]

    تم استكشاف ما بعد الإنسانية (دمج البشر والآلات) في المانجا شبح في وعاء وسلسلة الخيال العلمي الكثيب. في الثمانينيات من القرن الماضي ، تم رسم سلسلة الروبوتات المثيرة للفنان هاجيمي سوراياما ونشرها في اليابان والتي تصور الشكل البشري العضوي الفعلي بجلد عضلي عضلي نابض بالحياة ، وتبع ذلك كتاب "جينويد" الذي تم استخدامه أو تأثر به صانعي الأفلام بما في ذلك جورج لوكاس والمبدعين الآخرين. لم يعتبر سوراياما هذه الروبوتات العضوية جزءًا حقيقيًا من الطبيعة ولكنها دائمًا نتاج غير طبيعي للعقل البشري ، وهو خيال موجود في العقل حتى عندما يتحقق في الشكل الفعلي.


    الإحداثيات الجغرافية - برنامج تعليمي باستخدام أداة التحويل عبر الإنترنت

    معظم خلايا شبكة UTM منتظمة. الاستثناءات هي V30 و V32 و X31 و X33 و X35 و X37 في شمال غرب أوروبا.
    الخطأ الأكثر شيوعًا: الاستخدام الخاطئ للخط العرضي. حرف الفرقة "S".تستخدم بعض المصادر "S" للإشارة إلى نصف الكرة الجنوبي ، وليس نطاق خط العرض "S". في مثل هذه الحالة ، سيضع التحويل النقطة الناتجة شمالًا إلى خط الاستواء ، حيث يقع النطاق S.
    الحل البديل: في مثل هذه الحالة ، استخدم الحرف "M" بدلاً من ذلك. تقع الفرقة M في نصف الكرة الجنوبي. تستمد خوارزمية التحويل معلومات نصف الكرة فقط من حرف النطاق (في حالة الخلايا الشبكية العادية) ، لأن نطاق إحداثيات الاتجاه الشمالي (المحور الصادي) يغطي المسافة الكاملة من خط الاستواء إلى القطب. يسمح حرف النطاق بفهرسة الخرائط الورقية.

    تستخدم الشبكة البريطانية خلايا مربعة بحجم 100 × 100 كم. لذلك ، يجب أن تتناسب الإحداثيات (بالأمتار) مع 0.0

    نطاق 100000.0 متر. الخطأ الأكثر شيوعًا هو التفسير الخاطئ للإحداثيات المختصرة (من خريطة مطبوعة) ونتيجة لذلك ، وضع النقطة العائمة في موضع خاطئ. إذا تم إزاحة خريطتك بعد التحويل ، فعلى الأرجح يجب مراجعة ترميز الإحداثيات.

    عادة ما تكون الإحداثيات الجغرافية في شكل زاوية (خطوط الطول / العرض) أو متوقعة (اتجاه الشرق / الشمال أو س / ص). تُشتق الإحداثيات الزاوية من نموذج مبسط ثلاثي الأبعاد لسطح الأرض (كرة أو شكل بيضاوي). إذا تم تطبيق الإسقاط ، فإن السطح ثلاثي الأبعاد يتحول بشكل أكبر على المستوى المسطح ثنائي الأبعاد ، والذي يتضمن بعض التشويه.

    يستخدم الشكل الزاوي في الغالب في تطبيقات واسعة النطاق مثل الطيران والبحرية. تستخدم رياضيات النظام الزاوي نموذجًا إهليلجيًا للأرض بنصف أقطار مناسبة ومعلمات أصل منسقة. نظرًا لأن شكل الأرض ليس منتظمًا تمامًا ، فإن كل نموذج إهليلجي ينحرف عن شكل الأرض الحقيقي. لتقليل هذا الانحراف ، طورت العديد من البلدان مرجعها الإهليلجي مع معلمات مختلفة قليلاً ، والتي تحقق أفضل دقة ممكنة في المنطقة المعنية.

    بالنسبة للتطبيقات ذات النطاق الأصغر ، غالبًا ما تكون الإحداثيات المتوقعة أكثر سهولة. في كثير من الحالات ، يتم التعبير عن الإحداثيات بوحدات الأمتار أو الأقدام ، ويتم قياسها من نقطة مرجعية معينة. يستخدم الإسقاط عددًا من النقاط المرجعية للسماح بترميز إحداثيات قصير وتقليل التشوه الناتج عن الإسقاط. بسبب نظام النقطة المرجعية (الشبكة) ، يُشار أحيانًا إلى الإحداثيات المسقطة باسم إحداثيات الشبكة. يتم تعيين خلايا الشبكة بأكواد فريدة ليست فقط جزءًا من تدوين الإحداثيات ولكنها أيضًا تبسط البحث عن ورقة الخريطة المطلوبة في حالة الخرائط المطبوعة. كل إسقاط يشوه العلاقات مثل المسافة أو المنطقة أو السمت بين مواقع الخريطة. لذلك ، تم تصميم طرق الإسقاط بحيث يتم الاحتفاظ بعلاقة واحدة على الأقل - متساوية قبل الإسقاط وبعده (منطقة ، على سبيل المثال) ، بينما يتم تشويه البعض الآخر بشكل حتمي بواسطة التحويل ثلاثي الأبعاد إلى ثنائي الأبعاد. تعتمد العلاقة المحفوظة على التطبيق ، ويمكن أن تكون السمت في حالة الملاحة أو المنطقة في حالة تطبيق إدارة الأرض. تحافظ العديد من طرق الإسقاط على المسافة للسماح بقياسها السهل على الخريطة وحسابها من إحداثيات نقطتين. على أي حال ، يعتمد نظام الإحداثيات المسقط (2D) دائمًا على بعض أنظمة الإحداثيات الزاوي (3D). لا يوجد عرض مثالي لجميع التطبيقات. لذلك ، هناك العديد من طرق الإسقاط قيد الاستخدام.

    كما ذكرنا أعلاه ، هناك العديد من الأنظمة الزاوية بمعلماتها (تسمى باختصار & quotdatums & quot) والعديد من الأنظمة المسقطة (كل منها يعتمد على بعض البيانات). أثناء العمل في مجال رسم خرائط GPS ، تتم مصادفة البعض في كثير من الأحيان أكثر من البعض الآخر. يستخدم نظام تحديد المواقع العالمي النظام الجيوديسي العالمي (مراجعة 1984 ، أي WGS84) كنظام إحداثيات مرجعي. تستخدم ملفات الخرائط المتوافقة مع وحدات GPS من Garmin WGS84 أيضًا. لذلك ، تقوم Mapwel بتحويل جميع بيانات الإدخال مثل ملفات الشكل أو إحداثيات نقطة المعايرة إلى إحداثيات زاوية WGS84 ، والتي يتم استخدامها في هياكل البيانات الداخلية الخاصة بها. من بين التوقعات ، يبدو أن UTM (Universal Transverse Mercator) يستخدم في أغلب الأحيان. إذا كانت بيانات الخريطة تستخدم إسقاط UTM ، فيجب عكس الإسقاط للحصول على الإحداثيات في نموذج خط العرض / خط الطول. يجب تحويلها إلى WGS84 إذا تم استخدام مرجع إهليلجي آخر.

    توضح الآلة الحاسبة الموجودة أعلاه تحويل الإحداثيات وتعرض بعض التلميحات المتعلقة بأخطاء المستخدم الأكثر شيوعًا. إنها مجرد مجموعة فرعية من إمكانيات التحويل في Mapwel. يحتوي الإصدار الحالي من المحول عبر الإنترنت على حوالي 290 مرجعًا ، وإسقاط Universal Transverse Mercator (UTM) المستخدم على نطاق واسع والشبكات الوطنية البريطانية والأيرلندية. نخطط لإضافة المزيد من أساليب الإسقاط إلى هذه الأداة عبر الإنترنت في المستقبل.


    استخدم سياسات الوصول المشروط

    إذا كانت مؤسستك لديها احتياجات أمان أكثر دقة لتسجيل الدخول ، فيمكن أن توفر لك سياسات الوصول المشروط مزيدًا من التحكم. يتيح لك الوصول المشروط إنشاء وتعريف السياسات التي تتفاعل مع أحداث تسجيل الدخول وتطلب إجراءات إضافية قبل منح المستخدم حق الوصول إلى تطبيق أو خدمة.

    قم بإيقاف تشغيل كل من الإعدادات الافتراضية لكل من MFA والأمان قبل تمكين سياسات الوصول الشرطي.

    يتوفر الوصول المشروط للعملاء الذين قاموا بشراء Azure AD Premium P1 ، أو التراخيص التي تتضمن هذا ، مثل Microsoft 365 Business Premium و Microsoft 365 E3. لمزيد من المعلومات ، راجع إنشاء سياسة الوصول المشروط.

    يتوفر الوصول المشروط المستند إلى المخاطر من خلال ترخيص Azure AD Premium P2 أو التراخيص التي تتضمن ذلك ، مثل Microsoft 365 E5. لمزيد من المعلومات ، راجع الوصول المشروط المستند إلى المخاطر.

    لمزيد من المعلومات حول Azure AD P1 و P2 ، راجع تسعير Azure Active Directory.

    قم بتشغيل المصادقة الحديثة لمؤسستك

    بالنسبة لمعظم الاشتراكات ، يتم تشغيل المصادقة الحديثة تلقائيًا ، ولكن إذا اشتريت اشتراكك قبل أغسطس 2017 ، فمن المحتمل أنك ستحتاج إلى تشغيل المصادقة الحديثة للحصول على ميزات مثل المصادقة متعددة العوامل للعمل في عملاء Windows مثل Outlook.

    1. في مركز إدارة Microsoft 365 ، اختر في شريط التنقل الأيسر إعدادات & GT إعدادات المؤسسة.
    2. تحت خدمات علامة التبويب ، اختر المصادقة الحديثة، وفي المصادقة الحديثة جزء ، تأكد تمكين المصادقة الحديثة تم الإختيار. أختر احفظ التغييرات.

    قم بإيقاف تشغيل MFA القديم لكل مستخدم

    إذا سبق لك تشغيل MFA لكل مستخدم ، فيجب عليك إيقاف تشغيله قبل تمكين إعدادات الأمان الافتراضية.


    شاهد الفيديو: الدرس 6-10: النمذجة ومخطط سير العمليات