كل الحلقات

طاعة البشر ليست هدف الذكاء الاصطناعي | بودكاست فنجان

00:00.000
|
انت ما تبغى تكون في هذا الموضع
00:02.000
|
ليش تحط نفسك في موضع شي
00:04.000
|
انت بالنسبة له نملة
00:06.000
|
وهدافكم متعارضة
00:08.000
|
يعني مو بيبيبيدك شان بس يبيبيدك
00:10.000
|
شمو اهداف اهدافي
00:12.000
|
هذي النقطة يعني هلو يقدر الحال يفكر الحالة بدوني
00:14.000
|
يعني هنرانر خير بضغط انتر
00:16.000
|
يعني بدون بضغط انتر هو
00:18.000
|
مو بجلس وشي
00:20.000
|
قلل عدد الوفيات البشري
00:22.000
|
عندك مانع ان يكتبها
00:24.000
|
افت
00:26.000
|
اضغط انتر
00:28.000
|
يقوم بيحاول يذبح كل بشر
00:30.000
|
تعطيه هدف صريح زي والله
00:32.000
|
بيلقى ثغرات
00:34.000
|
واذا لغى ثغرة انت ما انتبهت لها
00:36.000
|
مافي عودة فمو مانع
00:38.000
|
انك انت بنيت الشي
00:40.000
|
مانع انك عندك قدرة وتحكم عليه
00:42.000
|
اي واحد عنده عيال بيعرف
00:48.000
|
اهلا هذا فنجان من ثمانية
00:50.000
|
وانا عبد الرحمن
00:52.000
|
ابو مالح
00:54.000
|
في هذه الحلقة
00:56.000
|
يؤكد ضيفي تأكيدا
00:58.000
|
لا يدع مجانا للشك
01:00.000
|
ان الآلة
01:02.000
|
ستتفوق على الانسان
01:04.000
|
ستهزم البشرية
01:06.000
|
وانها مهدد حقيقي
01:08.000
|
للوجود البشري
01:10.000
|
ويتفق على هذا الطرح طبعا
01:12.000
|
علماء وباحثين كثر
01:14.000
|
احبيت ان اتكلم عن الذكاء
01:16.000
|
الاصطناعي بشكل موسع
01:18.000
|
والصراحة اني
01:20.000
|
اطمح الى تكثيف الطرح في هذا
01:22.000
|
المجال من زوايا متعددة
01:24.000
|
لعل المعرفة هذه
01:26.000
|
تساعدنا في فهم المستقبل
01:28.000
|
ومن يدري
01:30.000
|
ممكن احد يقدر يعدل في مسار
01:32.000
|
هلاكنا
01:34.000
|
ضيفي في هذه الحلقة
01:36.000
|
دكتور ابراهيم ابن مسلم
01:38.000
|
هو استاذ في الذكاء الاصطناعي
01:40.000
|
من جامعة اكسفورد
01:42.000
|
وهو من المطالبين بحوكمة
01:44.000
|
الذكاء الاصطناعي
01:46.000
|
والسيطرة عليه
01:48.000
|
فما الجهود التي تقوم فيها
01:50.000
|
الحكومات اليوم للسيطرة عليه
01:52.000
|
وين وصلنا
01:54.000
|
هل مثلا نتعامل
01:56.000
|
معه مثل تعاملنا
01:58.000
|
بالقنابل النووية
02:00.000
|
وحقيقة في اسئلة كثيرة
02:02.000
|
في محاولة لفهم
02:04.000
|
ذكاء الالة ومستقبلها
02:06.000
|
حيث ان الاذكاء
02:08.000
|
بسيطر على الاخر
02:10.000
|
قطعا يقول ابو احمد
02:12.000
|
ان الالة
02:14.000
|
اذكاء لا محالة
02:16.000
|
قبل ان
02:18.000
|
نبدأ اذا كنت
02:20.000
|
مهتم بسماء حلقات فنجان
02:22.000
|
اول ما تنزل وما ودك يفوتك
02:24.000
|
شيء منها
02:26.000
|
تابع فنجان وفعل
02:28.000
|
اشعاراته في منصات البودكاست
02:30.000
|
وراح احط رابط
02:32.000
|
رابط في وصف الحلقة
02:34.000
|
مع العلم ان
02:36.000
|
موعد نشر الحلقة الصوتية
02:38.000
|
هو ساعة 6 صباحا
02:40.000
|
كل يوم احد
02:42.000
|
والمرئية
02:44.000
|
ساعة 6 مساءا كل يوم اربعة
02:46.000
|
ثلاثة ايام
02:48.000
|
من نشر الصوتية
02:50.000
|
اما الان لنبدأ
02:52.000
|
من المتشائمين او المتفائرين
02:54.000
|
من الذكار الصناعي
02:56.000
|
انا متشائم
02:58.000
|
من الذكار الصناعي
03:00.000
|
لا انا متشائم
03:02.000
|
هناك فرق عندما اقول لك
03:04.000
|
هل تتوقع
03:06.000
|
لو استرك ابن الحمد
03:08.000
|
هل ممكن تموت من حادث السيارة
03:10.000
|
ممكن
03:12.000
|
اذا اذهب وانا اقول
03:14.000
|
عبد الرحمن يتوقع انه يموت من حادث السيارة
03:16.000
|
متشائم
03:18.000
|
هناك فرق عندما اقول شيء ممكن
03:20.000
|
وانا اخبره
03:22.000
|
اربط الحزام
03:24.000
|
أنا من متشائم، أنا أقول إذا الوضع أستمر على ما هو عليه
03:28.800
|
فأنا متشائم، بس أنا متفائل إن الوضع ما رح يستمر
03:33.000
|
حبيبي، طيب بس قبل شي إحنا كده نتناقش
03:39.400
|
نتناقش يعني حد على الذكاء الاصطناعي
03:44.800
|
فحس إن الاغلب الناس يشوفون الذكاء الاصطناعي هو
03:48.600
|
يعني فيلم الناس تقول إنه خطر الذكاء الاصطناعي فيما بعد ومدري كيف وسكذا
03:52.400
|
يربط على وش يجلس يشوف اليوم من الذكاء الاصطناعي
03:55.400
|
صحيح
03:57.400
|
بس
03:59.400
|
هو شف أنت حتى تتكلمنا فيه مرة ماضية يعني فيه مستويات الذكاء الاصطناعي اللي هو ضعيف والقوي والخارق
04:07.400
|
لما نتكلم عن يعني الذكاء الاصطناعي اللي ممكن يتفوق على ذكاء البشر يعني هذه علاقتهم يصنف خطر وجودي يعني
04:15.400
|
وهذا ممكن؟ إنه نصل له يعني؟
04:17.400
|
نحن في الطريقة اللي نوصل له؟
04:20.400
|
لو تشوف تاريخ التقنية ماشي
04:22.400
|
نفسي في رتم متصاعد يعني ما في شيء يمنع يعني ما في شيء تقدر تثبت إنك ما تقدر تخطى مثلاً ذكاء الإنسان
04:33.400
|
يعني مثلاً ما في شيء واحد فيزيائي جاسي يحاول يبني مركبة تتمشي أسرع من صورة الضوء
04:38.400
|
إنه أقدر أثبت لك يعني إنسى موضوع
04:40.400
|
ما أقدر أنزل مثلاً تحت الصفر كالبن في شيء مستحيل فيزيائياً إنه فيزيائي ما يحاول
04:46.400
|
حلو أليس كذلك؟
04:48.400
|
هل الذكاء
04:50.400
|
لو نرتب ذكاءات الكائنات
04:53.400
|
مثلاً من أميبة، حشرات، حيوانات، إنسان هل هن الحد الأقصى؟
04:59.400
|
ما في شيء يقول إيه ولا لا
05:01.400
|
فالناس ماشيين على أساس إنه ممكن
05:04.400
|
طب أصنعوا شو الذكاء عشان لما نقول ذكاء صناعي خلينا نعرف متى يصير الإنسان ذكي
05:10.400
|
شوف أول شيء نعرفه هذا الذكاء إنه نسبي يعني ما تقدر تقوله على شيء ذكي أو غبي إلا لما تعرف الهدف
05:17.400
|
بمعنى يعني تخيلني إنك مثلاً نطالع شفتني كده قاعد أكسر سيارتي مثلاً
05:22.400
|
تكشف مثلاً ولدي محبوس جوا وبيأنقذه ما في وقت مثلاً أنا أدور مفتاح أو لا
05:28.400
|
بتقول أوكي في السياق هذا لا تصرف ذكي فهمت عليه؟
05:31.400
|
وبرضه يعني من الحكم في قصة نوح مثلاً إنه كيف واحد قاعد يبني سفينة في صحرة وعرفت عليه
05:38.400
|
بس لما تعرف هدفه لما تعرف السياق قصة موسى مع الخطر لما عرف السياق بان أنه تصرف ذكي
05:45.400
|
فأحياناً فيه تصرف قد يبدو لك ذكي لما تعرف الهدف يطلع غبي
05:50.400
|
والعكس تصرف قد يبدو غبي
05:52.400
|
لما تعرف الهدف يبدو ذكي
05:54.400
|
يعني تو كنت ألعب مع ترك شترنج زين فخننظر فيه مثال
05:59.400
|
يعني تخيل إنك جيت كده لقيتني قاعد ألعب شترنج حلو؟
06:02.400
|
ولعبت لعبة كده قد تبدو غبية مثلاً وزيري كده واضح إنه يبين وكل
06:08.400
|
فجيت كنت ليش اللعبة دي ياه؟ وحمد واضح إنه يبين وكل
06:12.400
|
لك تكشف إنه مثلاً قاعد ألعب مع وليديو بس ترى موضوع موبا
06:16.400
|
أي بس أكون علاقة معه وكده وحتى لو انه هزمت بيتعلم اللي هي
06:18.400
|
فجأة صار اللعبة الغبية هذه في السياق اللي هذا إنه ذكي
06:23.400
|
والعكس لو لعب لعبة كده قلت يا إبراهيم وش دي الحركة البطلة؟
06:29.400
|
ما تكشف إنك قاعد تلعب مثل ولد أخوي عمره ثلاث سنين
06:32.400
|
وبيعلمه
06:34.400
|
ففي السياق هذا ما قلت يعني الحركة هذه غبية قياساً على الهدف
06:42.400
|
ما قلت تقول تصرف ذكي ولا غبي هو نسبة إلى الهدف
06:46.400
|
عادة نلمس يقول هذا تصرف ذكي ولا غبي
06:49.400
|
تقيقس على أهدافه
06:51.400
|
بس الأهداف هنا مشكلة
06:53.400
|
ترى ما في شي اسمها هدف ذكي وهدف غبي
06:55.400
|
الهدف هدف يعني زي المسلمات في الرياضيات
06:58.400
|
يعني زي في الرياضيات الآن
07:00.400
|
أنا أقدر مثلاً أبدأ لك من نظرية وأبدأ أستنتج لك
07:04.400
|
مثلاً أقولك ألف إذن با با إذن جيم جيم إذن دال إلى ياء
07:08.400
|
ياء المسلمات
07:10.400
|
فهمت عليه؟
07:12.400
|
تسأل الرياضي يقول لك والله المسلمات إحنا بدينا فيها هي
07:14.400
|
المسلمات عرفت عليه؟
07:16.400
|
زي مثلاً خطين متوازنة تقطعون أقصر
07:18.400
|
مسافة بين نقطتين خط مسترقية من هذا
07:22.400
|
فالمسلمات هذه خلاص أنت أهم شي أنه يكون ما يكون عندك تعارض
07:27.400
|
في شروط على المسلمات بس ما تخلي فيها
07:29.400
|
نفس الكلام الهداف
07:31.400
|
ما تقدر تقول على في نقطة معينة
07:34.400
|
ما تقدر تقول لهدف هدف
07:36.400
|
يعني مثلاً نرجع لمثال شطرانج
07:38.400
|
لو سألتني مثلاً قلت إبراهيم لطالما ليش تبغى تنزم؟
07:40.400
|
أقولك مثلاً أبي ولدي يتعلم
07:43.400
|
تقول لي ليش يبي يتعلم؟ أقول لك أبغى يطور مهاراته
07:44.400
|
تقول ليش يبي يطور مهاراته؟
07:46.400
|
أقول لك أبغى ينجب الحياة
07:48.400
|
تقول ليش تبغى ينجب الحياة؟ أقولك أبو سيسعيد
07:50.400
|
تقول لي بخلاص عادي أبدا ما أتجي أولدي أحبه
07:52.400
|
عرفت علي في حد فأقول لك هي كذا
07:55.400
|
عرفت علي؟
07:57.400
|
فهذه زي المسلمات الفريضياتي عرفت علي؟
07:59.400
|
هذه المسلمة اللي فهذه يسمونها هداف وسيطة
08:06.400
|
هاي يسمونها هداف نهائية
08:08.400
|
الهداف الوسيطة ترى ممكن تتغير
08:09.400
|
يعني ممكن مثلا لو جاء أولادي قال يبا أنا ما أعرف شو ترنج والأمور هذي أنا لقيت نفسي أكثر مثلا في الرياضة ولا كده
08:17.400
|
أقول أوكي كان ودي يعني بس صلي وفكك
08:20.400
|
مثلا لو لقيت نفسي في التجارة يلا كم تريد تحرق من فلوسي؟
08:25.400
|
فهذا إذا كان هدف يتغير فهو مو بهدف هو وسيلة
08:31.400
|
فهمت عليه؟
08:33.400
|
بس ما في شي في الدنيا مثلا يخليني أخذ حبة مثلا تخليني أكره يعني
08:37.400
|
تقول خذ إبراهيم هذه حبة خذها
08:39.400
|
خلاص تكره عيالك وترتاحيني عرفت عليه وما ولا تشيل همهم وحتى لو ذبحتهم قانون ما رح يحاسبك وشو رح
08:48.400
|
ما في شي يخليني أخر أغير هدف النهائي هذا
08:52.400
|
بالعكس لو بتجبرني ممكن أعاركك
08:54.400
|
عرفت عليه؟
08:56.400
|
فهذي شوف يعني التصرفات تقرر تقيسها على الهداف
09:01.400
|
والأهداف في أشياء وسيطة وفي أهداف نهائية
09:04.400
|
أهداف نهائية ما تتغير
09:06.400
|
والأهداف ولا تقدر
09:09.400
|
بعد هذي فيها يعني في المجال
09:15.400
|
شو سمونها في نظرية اسمها را قلت هم أورثوغاناتي تيسوس حلو
09:21.400
|
أو نظرية التعامد تقول لك أنه ما تقدر تستنتج الأهداف من الذكاء
09:28.400
|
يعني ممكن تكون مرة ذكي وعندك هدف صخير
09:34.400
|
ولو تكون عندك هداف معقدة وتكون ذكائك متوسط
09:39.400
|
هناك علاقة بين الهداف والذكاء
09:42.400
|
عرفت عليه؟ يعني ما تقدر تستنتج الهداف من الذكاء ولا الذكاء من الهداف
09:49.400
|
يعني دخلني أعطيك مثال
09:51.400
|
يعني تخيل أقول لك مثلاً
09:54.400
|
وش لون سيارتي إذا كان اليوم الأحد؟
09:58.400
|
بالضبط
10:00.400
|
هذا التعامل طبعاً
10:02.400
|
يعني الذكاء ما يعلمك أي شيء عن الهداف
10:06.400
|
والأهداف ما يعلمك أي شيء عن الذكاء
10:07.400
|
بس متى نقول بس وحبيبك سوحيته؟
10:11.400
|
بضبط
10:13.400
|
لا لا لا بالأكس
10:15.400
|
تفهم؟
10:17.400
|
متى نقول على هدف ذكي ولا متى يصير الشيء ذكي متى الإنسان ذكي
10:25.400
|
عشان إذا عرفت أن هذا الشيء ذكي فهل هو تحقيق الهداف؟
10:29.400
|
هل هو؟ وش بالضبط اللي يخلي هذا الشيء ذكي؟
10:32.400
|
عشان أعرف كيف خليت الذكاء أصطناعي
10:34.400
|
شوف
10:37.400
|
زي ما قلتلك ما تقدر تقول على شيء ذكي أو غبي إلا لما تعرف الهدف
10:41.400
|
ممتاز
10:43.400
|
الآن كيف تعرف أن الشيء هذا ذكي ولا لا؟
10:46.400
|
تكتشف بقياسة على هدفه
10:49.400
|
هذا على قوتهم يعني
10:52.400
|
اللي واجهوه العلماء قبل
10:55.400
|
وكان فيه تعريف كثيرة والفلاسفة على قوتهم كل واحد عنده
10:59.400
|
نظرته
11:01.400
|
بعدين جاء آلان تورن
11:02.400
|
اللي هو على قوتهم مؤسس علم الحاسب
11:05.400
|
أنشتاين حقنا على قوته
11:08.400
|
وقال شف
11:10.400
|
يعني أوكي صح يمكن لو أسأل مئة واحد عن تعريف الذكاء
11:14.400
|
يجيني مئة تعريف
11:16.400
|
بس لو أسأل مئة واحد هل الإنسان ذكي؟
11:18.400
|
كان فيه إجمع إنه إنسان ذكي
11:20.400
|
فقال أوكي ليش ما نحول التعريف إلى اختبار
11:24.400
|
جميل
11:26.400
|
وبدل ما أحاول أعرف الذكاء الاصطناعي خلني أحاول أتعرف عليه
11:30.400
|
عن طريق الاختبار
11:32.400
|
فالأمر بسيط أنه أنا بحاور آلة أو بحاور شي أنا ما أدري هو آلة ولا إنسان
11:38.400
|
إذا ما قدرت أميز
11:41.400
|
هل أنا أتحاور مع آلة أو إنسان أو ما قدرت أفرق
11:46.400
|
فآلان تورن يقول إذا ما قدرت تفرق فما يفرق
11:49.400
|
حلو؟
11:51.400
|
فهذا تقدر تقول طريقة تقدر تقيس فيها الذكاء
11:56.400
|
بس أنت خدت الإنسان هو كالمعيار
11:58.400
|
وهذه يسمونها المدرسة السلوكية في الذكاء الاصطناعي
12:05.400
|
اللي هي يعني تعريف الذكاء هو يعني سلوك معين
12:12.400
|
إذا أنت عندك السلوك هذه خلاص معناته أنت صنف ذكي
12:16.400
|
جاء فيلسوف ثاني اسمه جون سير حلو
12:21.400
|
وقال له أعترض على نظرة تورنج وقال شف
12:24.400
|
وطرح حج اسمه حجة الغرفة الصينية
12:26.400
|
قال تخيل في واحد في غرفة زي اللي إحنا فيها الحين
12:31.400
|
وفيها كل الكتب اللي يحتاجها والتعليمات اللي يحتاجها عشان يترجم أي جملة من الإنجليزي إلى اللغة الصينية
12:38.400
|
والغرفة هذه تدخل عليها بس نتورقة مكتوب فيها جملة باللغة الإنجليزية
12:43.400
|
وهو يتبع التعليمات ويطلعها من الجهة الثانية مترجمة
12:47.400
|
فسير سأل قال هل الشخص هذا فاهم اللغة الصينية؟
12:53.400
|
قرأت
12:54.400
|
قرأت
12:56.400
|
بس مجرد يتبع التعليمات
12:58.400
|
اللي هو تشبير للحاسب
13:00.400
|
اللي الحاسب يتبع التعليمات
13:04.400
|
فتعريف سير للذكاء أنه لا هو مجموعة صرفات هو يعني هو كيفية
13:12.400
|
مو فقط ظاهرة
13:14.400
|
يعني كيف تفكر لها علاقة
13:18.400
|
طب في ناس ردوا عليه قال طب نفسك على مخك أنت الحين ما في منطقة معينة تعرف الصينية ولا تعرف الإنجليزية
13:25.400
|
فالغرفة كاملة تعرف الصيني
13:27.400
|
عرف؟
13:29.400
|
وكل الثنتين الذهري المقياس للإنسان
13:32.400
|
في ناس يقول لا المقياس للإنسان ممكن يقول أشياء مش طلع من الصرفات يعني غبي يعني
13:38.400
|
في ناس صدقين
13:40.400
|
في ناس صدقين
13:42.400
|
فقالوا لا فيه اللي يتصرف بعقلانية زي والله أو اللي مثلا يفكر بعقلانية فهذه تقريبا تقول أربعة
13:51.400
|
يعني سلوكية وتفكير
13:52.400
|
معيار إنسان معيار المنطق
13:56.400
|
واليوم يوم سويت ذكاء الاصطناعي
14:01.400
|
ما مدى تشابهها مع ذكاء الإنسان يعني هل هو أو وين قصورة حتى مقابل ذكاء الإنسان؟
14:07.400
|
اللي اليوم إحنا وصلنا له
14:09.400
|
شف
14:11.400
|
إحنا مني بقادي نحاول إحنا استوحينا من المخ
14:14.400
|
بس مني حقق أنه مني زيه بالضبط
14:17.400
|
زي
14:18.400
|
كيف شبهها؟
14:23.400
|
يعني زيه فرق بين تصميم الطيارة وكيف الأسفل يطير يعني
14:28.400
|
فيه الفكرة العامة بصراحة تطور بمسار مختلف تماما
14:32.400
|
فعندنا في الآلة هذا تشابه فهم حاولوا أنه عندنا خلايا عصبية في الإنسان وشيء ثاني حاولوا يشابهونه عشان يوصل إلى الذكاء الاصطناعي اليوم؟
14:44.400
|
حاولوا يشابه الخوارزمية التطورية مثلا
14:46.400
|
يعني مو على مستوى المخ بس على مستوى البيولوجيا كل دي يعني
14:51.400
|
يعني تطور بيولوجي
14:53.400
|
ونفس الكلام يعني قالوا أوكي
14:56.400
|
الآن التطور فيه استفاق طبيعي
14:59.400
|
وفيها تفرات جينية
15:02.400
|
وفيه تزاوج
15:04.400
|
وبعدين فيها الجيل يكون أكثر كفاءة
15:08.400
|
ففيه خوارزمية التطورية وش فكرتها؟
15:11.400
|
فكرتها أنك تبدأ بحلول عشوائية
15:14.400
|
ونفس التطور
15:17.400
|
البقاء الأقوى
15:20.400
|
يعني ممكن هذا في البلاية الحلول العشوائية كلها يعني تجيب لك نتائج سيئة
15:25.400
|
بس هذا نتيجة أفضل من هذا بشوي
15:27.400
|
وهذا نتيجة أفضل من هذا بشوي
15:29.400
|
فاحتمال أن هذول ينجون للجيل الي بعده أعلى
15:33.400
|
وبعني ينجون الحلين
15:35.400
|
وتستمر
15:37.400
|
وتسوي تفرات جينية بعد عشوائية
15:39.400
|
مع الوقت
15:41.400
|
إلى ما تلقى التسلسل هذا جيل عن جيل
15:44.400
|
معدل الدقة يزيد
15:50.400
|
نظر مثل الشطرنج مرة ثانية
15:52.400
|
زي فيه لغز سمونا
15:54.400
|
اللي عندك رقعة شطرنج
15:57.400
|
وكيف أني أحط ثمان وزرة بحيث ما حد يهجمها الثاني
16:02.400
|
حاول تسويها صعبة شوي
16:05.400
|
فتجي تحلها بخوارزمية التطورية
16:08.400
|
تجي تقول بالبداية أحط أماكن عشوائية
16:11.400
|
حلو؟
16:12.400
|
تسوي ألف مرة
16:14.400
|
وبعدين تشوف مين اللي فيهم أقل تعارض
16:18.400
|
يعني مثلا في الترتيب هذا حصل أنه فيه مثلا عشرة وزرة يهجمونا بعض
16:25.400
|
والترتيب هذا فيه ثمانية
16:27.400
|
فهنا الثمانية مثلا قدرة النجاة أعلى
16:30.400
|
وبعدين الجيل الثاني تاخذ اللي ثمانية واللي سبعة
16:35.400
|
وبعدين تقسم الرقعة من الصفين وتجمج الحلين
16:40.400
|
وتستمر
16:41.400
|
وبعدين تسوي طفرة عشوائية تحرك وزير عشوائي
16:44.400
|
عرفت عليه؟
16:46.400
|
فهذا برضو الطريقة الثانية يستيحى من الطبيعة
16:50.400
|
طيب متى أول مرة كذا وقفت وأذهبك وصول الذكاء الاصطناعي اليوم؟
17:03.400
|
والله شاجئ بيتي صراحة
17:05.400
|
أي نسخة؟
17:07.400
|
أربعة
17:08.400
|
صراحة يعني مخيف صراحة
17:11.400
|
يعني أنا ما أتوقع شف ما أقول لك ما كنت أتوقع يوصل الذكاء الاصطناعي يوم من الأيام لهذا المستوى
17:22.400
|
بس أني اليوم أجلس معك في عشرين ثلاثة وعشرين وهذا الذكاء الاصطناعي شاجئ بتي فور موجود
17:29.400
|
هذا ما كنت أتوقع صراحة
17:31.400
|
يعني كنت أتوقع بنوصل لهذا يمكن عشرين ثلاثين أو شيء زي كده
17:35.400
|
ف
17:36.400
|
كنت أماشي نتطلب عن في قفزة
17:40.400
|
صراحة
17:42.400
|
شلي خلي كيف ستصير بهذه الصراحة؟
17:46.400
|
لأنه يا أخي اللغة ترى من أصعب التحديات الذكاء الاصطناعي
17:51.400
|
لأنه شف حتى لاحظ اللغة سمة بشرية يعني من كل الحيوانات الموجودة
17:59.400
|
يعني كل الحيوانات مثلا في عندها بصار تشوف وتسمع
18:04.400
|
يعني بس سمة اللغة والتواصل وأن في فكرة براسي أوصلها الراسك عن طريق اللغة
18:14.400
|
ما هي موجودة في الحيوانات يعني أو علاقة بهالمستوى
18:19.400
|
واللغة بعد فيها تحدي يعني خاص لأنه على عكس مثلا الصور والصوت
18:27.400
|
وفي النهاية ذكاء الاصطناعي تعطيه مدخلات يحاول يتنبه ويطلع لك مخرجات
18:31.400
|
من تطور البناء
18:34.400
|
إلى أناقة التصميم ورفاهية الخدمات مع تمييز الموقع
18:38.400
|
حلول سكنية مبتكرة ومستدامة مع شركة صفا للاستثمار
18:42.400
|
المزيد في وصف الحلقة
18:49.400
|
صورة أو صوت هي عبارة عن مجموعة أرقام يعني يعطيك صورة هي علاقتهم مجموعة بيكسل
18:56.400
|
وكل بيكسل رقم من صفر إلى مية وصفر ما أسود ومية أبيض إذا إلا افترضنا الصورة أبيضة أو سود
19:05.400
|
ونفس كلام الصوت الصوت يعني هي أرقامهم لو تتخيلها كذا كنا زي الفويس نوت حلوة اللي في كل وقت في علور الصوت
19:17.400
|
فالأرقام سهلة التعامل معها فمثلا في الصور تقدر بطريقة سهلة مثلا أفصل لك صور النهار عن الليل
19:25.400
|
معرفتها لي من الصور من بينها تلبيها أقدر مثلا بالصور
19:28.400
|
كآلة أنت تتكلمني
19:30.400
|
اي كآلة ايه كآلة حتى طرق قديمة يعني
19:34.400
|
فأقدر أفصل لك مثلا أحلل الصوت إلى ترددات وعادة لأن الرجال تردد أقل من تردد صوت المرأة فأقدر أفصل لك صوت الذكور علينا بطريقة بسيطة
19:46.400
|
فلأنها موجودة أردي على صيغة أرقام سهلة الهضم بالنسبة للكمبيوتر شوي ولو إنا يعني مو هالسهولة
19:57.400
|
اللغة مشكلتها أنه حروف كتابة يعني ما تقدر أعطيك مثالين
20:04.400
|
كلمة مثلا طبيب وبطارية ومستشفى
20:10.400
|
حلو
20:12.400
|
طبيب وبطارية فيها أحرب متشابهة أكثر من كلمة المستشفى
20:16.400
|
صحيح
20:18.400
|
مع أنه يمكن كلمة طبيب أقرب لمستشفى بالمعنى
20:22.400
|
صحيح
20:24.400
|
فهي رمزية ما هي أرقام فهذه أول مشكلة أنت كيف يحول هذه المجموعة الرموز هذه إلى أرقام يقدر يتعامل مع الأهل
20:35.400
|
فهذا أول تحدي
20:38.400
|
كيف حلو هذا التحدي لو ندخل شوي فيها
20:43.400
|
حاولوا يحولون كل كلمة إلى يعني أرقام
20:48.400
|
زي كأنك تقدر تخيلها كأنها المثال ده مضربة بار كود
20:52.400
|
يعني لو بتدخل في الماركت زين وتشتري مثلا تفاح ولا برطقال ولا قهوة كل شيء عليه بار كود
20:59.400
|
صحيح
21:01.400
|
بس لا تاخذ بار كود حق التفاح وتغير خط واحد يمكن فجأة يطلع لك قهوة
21:03.400
|
ولا تغير حق خط واحد فجأة يطلع لك لبن
21:06.400
|
ولا ما علاقة ببعض
21:08.400
|
أوكي
21:10.400
|
الفكرة كيف أني أقدر أسوي مثلا بار كود بحيث أني مثلا لو أغير خط في التفاح الأحمر طلع لي تفاح أخضر
21:18.400
|
أنا أغير شيء قريب
21:20.400
|
فوش تسوي
21:22.400
|
تجيب أقرب اثنين البعض مثلا تفاح أحمر تفاح أخضر عنب أحمر عنب أخضر
21:26.400
|
برطقال يوسف اندي حلو
21:28.400
|
قسموا اثنين اثنين اثنين
21:30.400
|
وتقول أوكي هذا خط وهذا خطين
21:31.400
|
وبعدين تعمل كل مجموعة كأنها يعني يعني شيء واحد
21:38.400
|
حلو هلأ
21:40.400
|
تقول أوكي وش أقرب مثلا مثلا تفاح التفاحتين والبرطقالتين أقرب البعض من مثلا القهوة الشاهي
21:48.400
|
فتقول تزيد خطينة وتزيد خطينة
21:50.400
|
فلما تنتهي تصير عندي كنة زي الشجرة تقريبا
21:53.400
|
أوكي
21:55.400
|
مو هذا بالضبط اللي يصير بس هي نفس الفكرة
21:57.400
|
أني كيف أحول
21:58.400
|
أعطي كل كلمة بار كود
22:03.400
|
بحيث أني لو أغير رقم أو أغير شيء بسيط على الأقل يطلع لي كلمة قريبة بالمعنى
22:09.400
|
فكيف سووها في اللغة
22:15.400
|
مقياس التشابه خلو مقياس السياق
22:19.400
|
يعني مثلا ليش مثلا كلمة الأحد تشبه يوم الاثنين
22:23.400
|
لأني لما أقوم مثلا قابلت عبد الرحمن يوم ال
22:28.400
|
تتوقع لأحد اثنين ثلاثة أربع
22:31.400
|
يعني احصائيا احتمال ظهور الكلمات هذه بعد قابلت فلان يوم ال
22:37.400
|
أعلى من مثلا كرسي كاميرا
22:41.400
|
صحيح
22:43.400
|
وهذا اللي نشوفه في لوحة مفاتيح في الجوار
22:47.400
|
صحيح بالضبط هو ياخذ السياق
22:50.400
|
لو سكتب السلام ألا يرجح أن يكتب بعدها عليكم
22:54.400
|
صحيح
22:55.400
|
وهذه اللي استخدموها عشان يعرطبوه الكلمات جنب بعض يطلعوه بـ بار كود لكل كلمة
23:01.400
|
بس أن الآلة اللي ترتب ولا لا صح؟
23:05.400
|
الآلة هي اللي تحاول تستكشف
23:08.400
|
يعني ما في أحد راح كتب السلام وقل لهم أنه بعدها الاحتمال بيكون عليكم
23:13.400
|
هو الآلة الحالة اكتشفت أنه عليكم صح؟
23:15.400
|
اي لا اكتشف من نفسها بس أنت تعطيها البيانات
23:19.400
|
ليش الشركات تجمع كل البيانات وتسحب الانترنت عشان تطلع بالحصائيات هذه
23:24.400
|
يقول له عندي كل هذي الكمل هذي البيانات شوف وش أكثر احتمال بعد كلمة السلام
23:30.400
|
حلو ولا؟ وش أكثر كلمة بعد مثلاً المملكة العربية السعودية
23:37.400
|
فمنها يحاول يستخرج بار كود لكل كلمة بحيث إذا كانوا بار كود يتشابهون فهم إحصائياً يتشابهون
23:50.400
|
فهمت عليه؟
23:51.400
|
فالأشياء اللي لاحظوها بعدين مثلاً لما أنت هالذكاء الاصطناعي من التدريب لو تجيب مثلاً البار كود حق كلمة مثلاً ملك
23:59.400
|
بعدين تطرح منها كلمة ذكر
24:03.400
|
بعدين تجمع كلمة أنثى تطلع عليك البار كود حقك ملك
24:09.400
|
قولتها لي؟
24:11.400
|
جب البار كود حق كلمة ملك
24:14.400
|
حلو
24:16.400
|
بعدين اطرح منها لأنها صوت أرقام الحين
24:18.400
|
صح
24:19.400
|
هالرموز وهالخطوط إلى أرقام عشان يقدر يهضم الكمبيوتر
24:23.400
|
فالبار كود حق ملك اطرح منها البار كود حق كلمة ذكر
24:28.400
|
حلو
24:30.400
|
بعدين اجمع عليه البار كود حق كلمة أنثى
24:33.400
|
بيطلع ملك
24:35.400
|
بيطلع بار كود حق ملكة
24:37.400
|
ملكة
24:39.400
|
فهمت الفكرة؟
24:41.400
|
فهذا أول مشكلة على الأقل نحلت
24:44.400
|
أنه قدرنا نحول هالرموز وهال...
24:47.400
|
بس هل اشتغلوا عليها؟
24:51.400
|
يعني أبتخيل إنهم يروحوا يسوونها بالإنجليزي
24:56.400
|
فهل اشتغلوا عليها إنهم يسوونها بالعربي؟
25:01.400
|
ولا هي الآلة صارت تتفكر وتشوف اللغات الثانية وتبدأ تسوي البار كود وتبدأ تحط العمليات الحسابية لحالها؟
25:09.400
|
ما تفرق حتى لو لغة برمجة
25:11.400
|
يعني حتى شات جي بي تي وأخواتها
25:15.400
|
تعطيه بس أنت كمية
25:17.400
|
تكست
25:18.400
|
نصوص
25:19.400
|
ما في كينغة
25:21.400
|
كلمة مختلفة هي يختلف يعني تماماً يعني فهمت علي؟
25:24.400
|
إن التراكيب اللغوية بين اللغات الحالة تختلف يعني
25:28.400
|
فمين اللي يفكر؟ هل الآلة صارت تتفكر حالها؟
25:32.400
|
أنت أعطيت الآلة هدف وهي علاقات من تكشف الطريق من نفسها
25:36.400
|
شات جي بي تي أنت قولها شوف
25:40.400
|
أبغاك تتنبأ بالكلمة هذه إذا كان هذه الكلمات هي اللي سبقتها
25:45.400
|
ممتاز
25:47.400
|
فعلى قولة جيفري هينتون هذا واحد من أعلام في المجال
25:52.400
|
قال انتفكر فيها إذا فيه برنامج مرة جيد في التنبؤ بالنصوص
25:58.400
|
زين؟
26:00.400
|
ما قدر يسويها إلا أنه فهم النص
26:03.400
|
لأنها طريقة أنك تقدر تنبأ
26:05.400
|
زي مثلاً إذا مثلاً بتتعلم أولادك مثلاً خلاص من تختبرها
26:09.400
|
تقول خاص تشيل عنا الجوال وتشيل عنا مثلاً أكسل الإنترنت وتودي مدرسة مثلاً
26:15.400
|
ما هي متساهلة تجبرها خالص ما لك طريقة أنك تجيب درجات إلا أنك فعلاً تتعلم
26:23.400
|
فشان جي بيتي يعطوها هذا التاسك قال أوكي أنت لحين عندك الكلمات هذه يلا تنبأ بهذه
26:31.400
|
فما قدر إلا أنه يفهم فوصل طريقة أنه يقدر يفهم حتى تعطيها أي لغة لحين
26:37.400
|
ومضطرها في الموضوع هذا أذكر قبل سنة طلع خبر هذا اللي في جوجل قال أنه
26:46.400
|
الآلة أصبحت واعية وشيء
26:48.400
|
واللي استقر على شان
26:50.400
|
أيوة واللي استقر على شان فشف قبل سنة كلام هذا وأنا كنت أقول يعني كأني يعني تركت عموضوع
26:58.400
|
قلت متى ما صارت الآلة تفهم جملة قم نقعد تعبنا وحنا قاعدين نمشي ذكي ساعة أقول أنها واعي
27:07.400
|
زي شفت التعقيدات في اللغة هذه والسياق المحلي وذاك قلت يعني
27:15.400
|
وقال عطيتها جملة اللي إن شاء الله بعد خمس سنوات تلو
27:19.400
|
عطيتها شاتشي بيتي وفهمها
27:23.400
|
وقلت لها ترجمها بإنجليزي وترجمها تخيل جملة هذه استوعب
27:29.400
|
فهذا تعقيد ثاني في اللغة حتى اللغة بعد ترى من تعقيدات اللغة أنه مين مجرد ترى مجموعة كلمات لو مثلا ترجم اللغة اللغة
27:39.400
|
مين بس خاص كل كلمة لها يقابلها كلمة ويمكن بس اختلاف في الترتيب شوي ومكتوبها بطريقة مختلفة
27:46.400
|
لا في أفكار في لغة مين موجودة في لغة ثانية يعني مثلا في بعض اللغات تقدر تتكلم بدون سياق زمني
27:53.400
|
حلو يعني مثلا بالإنجليزي لازم تحدد هل أنت الماضي والمضارع والمستقبل في اللغة الصينية تقدر تكون يعني مبهم شوي عرفت عليه
28:04.400
|
في بعض اللغات ما فيها كلمات ليمين يسار قدام ورا فيه يتكلمون دائما شمال جنوب شرق غرب
28:13.400
|
صح
28:16.400
|
ففي أشياء في اللغة أحيانا ما هي موجودة في لغات أخرى يعني هذا أول تحدي يعني أول شي فيه سياق وفيه معاني وفيها
28:34.400
|
وثالث شي اللي هو الترابط يعني المشكلة اللغة يعني مو زي الصورة هذه صورة محددة مقطع صوتي في النهاية مقطع محدد
28:46.400
|
الجملة ممكن تكون 20 كلمة وآخر كلمة لها علاقة بالكلمة
28:52.400
|
صحيح
28:54.400
|
يعني تخيل مثلا قاعد مثلا أصرف مع واحدة وقل لها والله فاتك رح ثمانية وقابلت عبد الرحمن واستقبلوا أنا والله خير استقبال
29:01.400
|
وجاب لي والله ترك الله تعطي العافية مويا وسواني الحلقة واستمتعنا وبعدين وانا طالع قلت مثلا تشرب من ماء الكوثر إن شاء الله
29:12.400
|
أنا قلت لمن؟
29:15.400
|
من اللي جاب لي مويا؟
29:17.400
|
تركي لأني جاب لي مويا أردت أعطي مثال صعب شوي
29:21.400
|
بس يعني في المثال هذا أنا قلت أتشرب ماء الكوثر لأنه من اللي جاب لي مويا؟
29:31.400
|
لأنه هو اللي عطاني المويا
29:33.400
|
زميل فلاحظ كلمة مرتبطة بأول الجملة حتى يمكن ما كانت حتى واضحة لكم فهذا الترابط صعب شوي
29:42.400
|
فأول شي سووا قالوا خلنا مثلا سير فيه تغذية عكسية يعني هذا الشبكة العصبية بدل ما أعطيها هالبار كود حلو لا؟
29:52.400
|
أعطيه البار كود والمخرج أعطيه كمدخل للبار كود الثاني اللي هي الكلمة اللي بعدها
29:59.400
|
بحيث على الأقل يصير فيه سياق وش الكلمة اللي جت قبلي؟
30:03.400
|
عرفت عليه؟
30:05.400
|
تشفوا إن هذا ما نجح على مدى جمل طويلة وكذا فيها صعوبات في التمارين وكذا
30:10.400
|
جاء بعدين فيها نموذج تاني يسموها LSTM اللي هو Long Short Term Memory
30:17.400
|
أو الذاكرة طويلة قصيرة مدى
30:19.400
|
قال لا فيه نسوي شي بحيث إنه يحدد وش الأشياء اللي يتذكرها ووش الأشياء اللي ينساها بسرعة
30:29.400
|
وبرضو عطت قفزة شوي بس ما حلت المسألة
30:34.400
|
اللي حل المسألة يبدو الحين اللي هو هذا نموذج ترانسفورمرز ومحولات اللي طلع من جوجل فين سبعة عشر
30:40.400
|
اللي ركز على فكرة التركيز
30:45.400
|
قال لا في الجملة فيه كلمات أزيد عليها تركيز وأقلل عليها تركيز
30:53.400
|
هذا أول سنقول إسهام
30:57.400
|
بس أكبر إسهام فيه صراحة لللي يشوفها إنه صار قابل إنك تجزئ المسألة وتوزعها على ألف كمبيوتر
31:09.400
|
أول النماذج هذه صعبة لأنها تسلسلية ما ريقب توزعها
31:14.400
|
يعني ما أقدر مثلاً
31:18.400
|
هنقول أطبخ كيكة فيه وقسمها قسمين كل واحد في فرن
31:21.400
|
بذلك ما حنفكر
31:22.400
|
ما هي خاصة الكيكة تاخد ساعة في فرن تاخد ساعة في فرن قسمت نصين تاخد ساعة ساعة
31:28.400
|
الترانسفورمرز لا سمح إنك توزع تمرن بالتوازي وعلى بيانات هائلة فصار
31:37.400
|
سرعة التجربة
31:39.400
|
أعلى بكثير
31:42.400
|
فهذا يمكن شوف تطور الحل من ناحية اللغوية
31:47.400
|
في شي ثاني بعدها في موضوع اللغة إنه اللغة شوي مرتبطة بالتفكير
31:53.400
|
يعني الحين زي لما مثلاً دقيقة واحد هو يكلمك صعب أنك تفكر بشي ثاني
31:58.400
|
صح
31:59.400
|
عرفت علي إنك تراك تستعير جهازك اللغوي شوي إنك زي لما مثلاً تتذكر غنية قصر
32:05.400
|
لأنك قاعد تستعير جهازك
32:06.400
|
حتى رضيات الطريقة صح
32:09.400
|
بالضبط بالضبط
32:11.400
|
تتذكر شيئ تقعك تغمض ولا تنظر فوق لأنك قاعد تستعير جهازك البصري
32:17.400
|
فنفس الكلام إنت لما تفكر فيه جزء من مخك قاعد يتكلم يعني قاعد تسمع نفسك
32:26.400
|
وقلت سواي تراقب نشاط المخ أثناء ما يفكر واحد وأثناء ما يتكلم فيه مناطق
32:34.400
|
ما أقول لك كل التفكير اللغوي
32:36.400
|
بس جزء كبير
32:38.400
|
أو جزء يعني خنقول اللي ميزنا عن باقي الحيوانات
32:42.400
|
إنه عندنا اللغة هذي اللي عطينا قدرة أن نفكر بأشياء يعني
32:48.400
|
ودليل شوف يا معلمنا شادي بدي
32:50.400
|
اللغة صار فاهم في البرمج وفي الشعر وفي الفيزياء وفي الكيمياء
32:55.400
|
يعني ما دربوه على قال نبغاك تصير مبرمج ونبغاك تصير شاعر
33:01.400
|
قال بس تنبأ بالكلمة اللي
33:03.400
|
اضطر إنا يفهم يوم فهم اللغة
33:08.400
|
صار يسوي أي مهمة لغوية
33:10.400
|
يعني كل الأشياء اللي يسويها الشاشة بدي أحيان أول كان في ذكاء الصناعية عندنا كل واحدة يعني رسالة دكتوراه
33:17.400
|
التلخيص طيب في واحد حياته شغال على كيف إنها تعطينا نصف لخصة
33:21.400
|
الترجمة نفس الكلام
33:23.400
|
محاولة تقييم الريفيوز مثلا تنبأ بالريفيوز
33:30.400
|
كل واحد البرمجة كيف إني مثلا أنا أخلي الآلة تبرمج هذا حياة ثانية
33:35.400
|
صحيح
33:36.400
|
هذا ما تبرمجت على شي محدد
33:38.400
|
أنت برمجته على مهمة واحدة
33:42.400
|
قدر منها يوصل للعمل
33:44.400
|
حتى بالإنسان لو تعلمت لغة ثانية
33:46.400
|
فتصير أكبر بشكل عام
33:48.400
|
لو تعلمت حتى موسيقى هذي
33:51.400
|
تقدر تسميها نوع ثاني من اللغة
33:54.400
|
فهم يما
33:57.400
|
فلون بس عشان أعرف
34:01.400
|
هم علموها على فكرة واحدة في اللغات
34:06.400
|
أو في اللغة واحدة
34:07.400
|
وهو بدأ يتعلم اللغات الثانية
34:09.400
|
ولا لأن اللغات كلها فكرة واحدة
34:12.400
|
فكان منهجية واحدة فيها
34:15.400
|
إلا عطوا كل اللغات من دون
34:18.400
|
كلها
34:19.400
|
لأن إيش اللي صار
34:20.400
|
لأن حتى في العربي
34:21.400
|
مو بس إنه السياق يفهمه ويعرف إذا أنت حبيتها مثلا مذكرا
34:25.400
|
يعني يفهم في سياق الجملة
34:27.400
|
يفهم حتى باللهجات يعني
34:29.400
|
بكل اللهجات المحلية في السعودية مثلا الحالة
34:32.400
|
ولا حتى اللهجات على كل العالم العربي
34:35.400
|
صحيح
34:36.400
|
فمسألة معقدة يعني شوف كم
34:39.400
|
جوجل إذا انفعلت اللغة العربية في البحث
34:43.400
|
يعني وأنها بدأت تفهمها
34:45.400
|
يعني أخذت مدري كم عشر سنين
34:47.400
|
هذا في نفس الوقت يعني صار
34:49.400
|
جلسك بارد؟
34:50.400
|
لا لا لا سيبك من بارد يعني جوجل قبل
34:52.400
|
قبل وجود الذكاء الاصطناعي يعني
34:54.400
|
أنا أتكلم على أن فهم اللغات في البحث
34:58.400
|
ما كان سهل
34:59.400
|
فكان هو شيء إنجليزي
35:01.400
|
تتأكد؟
35:02.400
|
بس أول جوجل في البحث ما كانت
35:05.400
|
ذكية؟
35:06.400
|
بالشكل الكلمة يعني ما تكتب مثلا
35:10.400
|
مثلا كمبيوتر يبحث لك عن الكاميرا
35:13.400
|
ما يبحث لك عن كمبيوتر وجهاز ولابتوب وبالمعنى
35:16.400
|
بس كان فيها رانكينج وكان فيها
35:18.400
|
لا لا بالعكس أصلا جوجل
35:20.400
|
وش اللي خلق جوجل جوجل؟
35:21.400
|
وش اللي خلقه؟
35:22.400
|
اللي هي بيج رانك
35:23.400
|
بيج رانك ما يعتمده
35:24.400
|
أول كانت المدرسة القديمة في البحث
35:26.400
|
على الكلمات والصلاة على الروابط
35:28.400
|
يعني مثلا تبحث عن إبراهيم سلم
35:30.400
|
يبحث لك في المواقع ويشوفوش أكثر موقع متكرر فيه
35:34.400
|
إبراهيم سلم إبراهيم سلم ويرتبلك إياه
35:36.400
|
هذا أكثر موقع تكرر فيه اسم إبراهيم سلم
35:40.400
|
بيج رانك لا
35:42.400
|
قال أنا بشوف الروابط
35:44.400
|
لما تقول إبراهيم سلم
35:46.400
|
الروابط
35:47.400
|
اللي تشير
35:48.400
|
تشير إلى وين فهمت عليه؟
35:49.400
|
فاخترع خوارزمي ببيج رانك
35:51.400
|
فممكن الرابط الأول صفحة
35:54.400
|
يمكن صفحة الشخصية اللي ما مكتوب فيها إبراهيم سلم إلا مرة واحدة
35:57.400
|
فأصلا يعني
35:59.400
|
ما كان لها علاقة باللغة
36:01.400
|
ما كان لها علاقة
36:02.400
|
مو ما كان لها علاقة بالنصوص
36:03.400
|
لها علاقة بالنصوص
36:04.400
|
بس
36:07.400
|
بس أنا شاهد هنا
36:09.400
|
أنه أذني أنه
36:10.400
|
أبني آي
36:11.400
|
ومعلن يوم
36:12.400
|
شاهد 34
36:13.400
|
ولا حتى 3
36:15.400
|
يوم دخلت اللغة
36:17.400
|
أنه ما تطلب يعني أصبح
36:20.400
|
تطور اللغة العربية
36:22.400
|
يوازي الإنجليزية
36:24.400
|
في نفس المنطقة
36:25.400
|
مع أنه ترى تدري كم نسبة اللغة العربية
36:27.400
|
من البيانات اللي تدرب عليها
36:29.400
|
كم توقع
36:30.400
|
ما أعرف يعني
36:31.400
|
أقل من نصف المئة
36:33.400
|
صوف الفاصلة خمسة وشو
36:35.400
|
تعالي
36:36.400
|
شف كل هذا الإنبهار من اللغة العربية
36:38.400
|
ترى أقول لها أعرب ويعرب
36:40.400
|
تخيل
36:41.400
|
تخيل
36:42.400
|
وهذه المعلومات كلها حصل عليهم في الإنترنت فس
36:44.400
|
كيف
36:45.400
|
بس اللي في الإنترنت هذه المعلومات
36:46.400
|
عندما أشوف أبني آي طبعا
36:48.400
|
يا أخي أبني آي أنا أسميه زي
36:50.400
|
الحرامي اللي اسمه شريف
36:52.400
|
أرادت
36:53.400
|
anything but open
36:55.400
|
أرادت أبني آي أقل من
36:57.400
|
يعني
36:59.400
|
سموه في موضوع
37:00.400
|
ال Open Access
37:02.400
|
ما أدري كيف سوى بالضبط
37:04.400
|
بس
37:05.400
|
النسبة هذه
37:06.400
|
I don't know
37:07.400
|
نسبة خمسة
37:08.400
|
صفر فاصلة
37:10.400
|
صفر خمسة
37:11.400
|
أو أربع ناس
37:12.400
|
رقم قليل
37:13.400
|
أقل من نصف المئة
37:15.400
|
ومع ذلك
37:17.400
|
شف كل الإنبهار هذا
37:18.400
|
لأنه زي ما قلت لك
37:19.400
|
تعلم لغة يفيدك في لغة ثانية
37:21.400
|
عرفت علي
37:22.400
|
يعني مو بمعناته
37:23.400
|
لو شلت كل اللغات الثانية
37:25.400
|
وتمرنت على بس هالكمية
37:27.400
|
بتجيك نفس النتيجة اللي جاتك من شاشة GPT-4
37:29.400
|
تعلم من هذه
37:30.400
|
واللغات الثانية
37:33.400
|
وقالوها قيد مرة في
37:36.400
|
في مؤتمر وشي إنه
37:38.400
|
قالوا يوم زاد اللغات تحسنت
37:40.400
|
اللغات الثانية
37:59.400
|
شترك في اللي ناسبك منها
38:01.400
|
وتوصلك على بريدك مباشرة
38:03.400
|
نترك لك رابط الاشتراك في الوصف
38:04.400
|
نشترك لك رابط الاشتراك في الوصف
38:09.400
|
شف تطلب
38:10.400
|
حتى تتفوق الأعلى على الإنسان
38:12.400
|
والله شاشة GPT-4 أثكى من الناس كثير
38:14.400
|
على الوصف
38:16.400
|
اتاني
38:20.400
|
أكون صادق
38:21.400
|
ما هقولك أثكى من كل البشر
38:23.400
|
بس هذا زي ما قلت لك سؤال
38:25.400
|
اللي فكر فيه من زمان
38:27.400
|
والتورنج أمامنا
38:28.400
|
تورينغ قال
38:30.100
|
إذا ما قدرت تتفرق
38:32.140
|
ما يفرق
38:33.060
|
إذا ما قدرت تميز
38:35.480
|
زي مثلا شات جي بي تي فور
38:39.080
|
كيف اختبروه
38:39.960
|
اختبروه حتى بعد على عدل
38:41.960
|
باركزان حق المحامات
38:43.300
|
اختبارات
38:44.780
|
و جاب أفضل من الإنسان
38:49.000
|
فدرك كثيرا إذا اختبر فيها
38:50.300
|
هل هو أفضل من الإنسان أو لا
38:51.480
|
عرفت عليه
38:52.560
|
تقدر تأخذه جانب جانب
38:55.520
|
زي في الاي كيو مثلا
38:57.080
|
و من الناس يجد
38:58.420
|
يعني يكثرهم اللي وقعوا على عريضة
39:00.700
|
و خافة و يعني في حق
39:03.140
|
ديب مايند هو اللي
39:04.260
|
ظهر
39:06.120
|
جوجل هو اللي استقر
39:07.860
|
جيفري هينتون اللي في جوجل
39:10.420
|
فيا كثر
39:13.340
|
الناس اللي
39:14.280
|
يتوقعون أن
39:18.580
|
الآلة بتدمر البشرية
39:20.760
|
صحيح
39:21.540
|
و حتى منهم الناس اللي لهم علاقة بالذكاء الاصطناعي
39:24.820
|
إيلان ماسك أو لسام عاطفن
39:26.340
|
أو لغيره
39:27.000
|
وش خايفين منها
39:29.180
|
إذا أنا الآن
39:31.960
|
ما أقدر أتخيل
39:32.700
|
وين رايحين
39:34.080
|
وش اللي يشوفونه مثلا بعد
39:36.920
|
ما دري كم سنة
39:37.880
|
خايفين منها وش هذا
39:39.740
|
يعني كيف بتدمر الإنسان
39:41.360
|
شوف مو بلازم تعرف كيف بتدمر الإنسان
39:43.620
|
عشان أقدر أتنبأ أني بيدمر الإنسان
39:45.680
|
باتك مثال
39:47.460
|
حتى مو الإنسان يتدمر البشرية
39:49.640
|
تنتهي البشرية
39:51.860
|
نرجع مثال السيارة
39:54.520
|
لما أقول لك أنا أتوقع
39:56.520
|
في احتمال أنه يصير حادث
39:58.520
|
مما أنا أتوقع أنه يصير حادث
40:00.520
|
بس في سياق الذكاء الاصطناعي
40:03.520
|
لما أقول لك أنه في شيء أذكى منك بكثير
40:06.520
|
حلو
40:07.020
|
وقلنا الحين الذكاء هو الوصول لأهداف
40:09.520
|
فإذا صار في تعارض الأهداف
40:11.520
|
البقال الأذكى
40:13.520
|
بقال الأذكى
40:15.520
|
زي مثلا
40:17.520
|
بيعطيك شطرنج بأستهلك اليوم
40:19.520
|
تخيجيتك يا عبد الرحمن قد شفت
40:22.520
|
بس ترى في الناس يدي مشكلة مع الشطرنج
40:24.520
|
يعني إنك مكثر بسوك
40:25.640
|
كيف من أي ناحية؟
40:26.520
|
إنها إحصائي بحت
40:28.520
|
هو ترى
40:29.520
|
أنت لما تستخدم مثال
40:30.520
|
عشان تعزل كل المتغيرات
40:31.520
|
وتركز على فكرة معينة
40:32.520
|
وأشرح فيها فكرة معينة
40:33.520
|
ما هي بالتشبيه
40:34.520
|
يساوي
40:39.520
|
تخيجيت قلت لك أنا مثلا
40:41.520
|
لقيت لي خطة بالشطرنج
40:43.520
|
وبتحدى فيها بطل العالم في الشطرنج
40:46.520
|
وبراهن على بيتي وفلوسي
40:48.520
|
وبخلاص
40:50.520
|
متأكد منها
40:51.520
|
بتقولي يا إبراهيم
40:53.520
|
أهدا من كده
40:54.520
|
ترى يمكن يفوز عليك
40:55.640
|
أجي أبوك طب
40:56.120
|
يا ورني كيف يفوز عليك؟
40:59.120
|
قلت يا أخي ماهي
41:00.120
|
لو أني أدري كنصب بطل العالم
41:01.120
|
أقول كي
41:02.120
|
يعني يلا ها
41:03.120
|
هذه الخطة فكرت فيها
41:04.120
|
جربت مع الشباب في الستراحة
41:05.120
|
وكلها مشتريها
41:07.120
|
أقول
41:08.120
|
أنت بتباري بطل العالم في الشطرنج
41:09.120
|
فيه فرق كبير في التكاء
41:11.120
|
يعني
41:12.120
|
فبقى أنت تجد مثلا
41:13.120
|
يقول يلا يمكن بيلعب كده
41:14.120
|
بعدين أجي أنا أرد عليك
41:16.120
|
بقى أنت تقول خلاص
41:17.120
|
أنا لعبت هذه فهو ما راح يلعب
41:19.120
|
ف
41:21.120
|
نفس الكلام
41:22.120
|
عندما يصير عندك
41:24.120
|
شي بالتعريف
41:25.120
|
أذكى منك
41:27.120
|
بكثير
41:28.120
|
وصار فيه تعارض
41:30.120
|
في الأهداف
41:31.120
|
أوكي
41:32.120
|
أقدر أتنبأ أني بيفوز
41:34.120
|
من دون ما أتنبأ كيف يسوي
41:36.120
|
تخيلي
41:37.120
|
جيت و سوينا مباراة
41:38.120
|
جيت لعبت مع
41:39.120
|
ماكديس كارلسون
41:41.120
|
و أنت قاعد تشوف مباراة
41:42.120
|
أنت يمكن لأنه مستواك قريب مني
41:44.120
|
بتقدر تقول
41:45.120
|
والله شكل أبراهيم بيلعب له
41:46.120
|
شكله
41:47.120
|
شكله بيلعب دي
41:49.120
|
بس ما ريك تنبأ وش بيسوي
41:50.120
|
ماكديس كارلسون
41:52.120
|
بطل العالم
41:53.120
|
صح؟
41:54.120
|
صح
41:55.120
|
بتقدر تقول وش بيسوي
41:56.120
|
ولا صرت أنت بطل العالم
41:57.120
|
صح
41:58.120
|
بس سهل مرة تتنبأ أني بيفوز عليه
42:00.120
|
نفس الفكرة منطقية
42:02.120
|
إذا قلت لك مبسطة مرة
42:03.120
|
فيه
42:04.120
|
كيانين
42:05.120
|
زين
42:06.120
|
هذا أذكى من هذا بكثير
42:09.120
|
بس هذا هدفه
42:10.120
|
يتعارض مع هذا
42:12.120
|
زي ولا لا
42:13.120
|
أنت بغت تصير في هالحالة
42:16.120
|
لا
42:18.120
|
فأنت الحين
42:19.120
|
يا أنك
42:20.120
|
تحافظ على أنك تكون أذكى منه
42:22.120
|
ولا تتأكد أن أهدافكم متوائمة
42:25.120
|
هذه مشكلة الموائمة في
42:28.120
|
في الذكاء الاصطناعي
42:30.120
|
أني كيف أتأكد أني لما أبني ذكاء اصطناعي خارق أذكى مني
42:34.120
|
زين
42:36.120
|
تكون أهدافنا مشتركة
42:37.120
|
أنت ما عندك مشكلة ترى في الذكاء
42:39.120
|
المشكلة مو في الذكاء مشكلة في الهداف
42:41.120
|
يعني أنت الحين
42:43.120
|
هذا رسول عيسى صلى الله عليه وسلم
42:45.120
|
قامنا اللهم واشه عزيزي الإسلام بأحد العمريين
42:47.120
|
بالعكس الشخص القوي الذكي
42:49.120
|
تلقى
42:51.120
|
العكس ما عندك مشكلة
42:53.120
|
المشكلة إذا صار ضدك
42:56.120
|
نرجع لمثال
42:59.120
|
يعني
43:00.120
|
الذكاء والهداف
43:01.120
|
يعني تخيل الحين أنا أجيب
43:03.120
|
ذكاء اصطناعي خارق
43:06.120
|
وقلت له يلا الحين
43:08.120
|
بنعطيه هدف
43:09.120
|
وبعطيه هدف مرة يعني بسيط
43:12.120
|
وواضح ومفروض ما يصل عليه خلاف
43:14.120
|
فقل له مثلا
43:15.120
|
قلل عدد الوفيات البشرية
43:19.120
|
عندك مانع أن يكتبها
43:20.120
|
عفت
43:21.120
|
أضغط إنتر
43:22.120
|
أضغط إنتر
43:23.120
|
تكتشف أنه بيقوم بيحاول يذبح كل بشر
43:25.120
|
ليش؟
43:26.120
|
ليه؟ لأنه هو بيحسبها
43:28.120
|
بيقول الحين دكي فيه 8 مليار الآن
43:30.120
|
زي والله
43:32.120
|
بس الناس بيموتون بيموتون
43:34.120
|
بقدر أحافظ عليهم في بعد فترة معين
43:36.120
|
بعد 100 سنة 200 سنة 300 سنة
43:38.120
|
الثمانية مليار هذي كلهم بيموتون
43:40.120
|
وقد جابوا ناس جدد
43:42.120
|
زي والله
43:43.120
|
في عام مدري
43:45.120
|
2317 بيصير عدد وفيها
43:48.120
|
8 مليار واحد
43:49.120
|
8 مليار أقل من 8 مليار واحد
43:53.120
|
حلو
43:54.120
|
أوكي هذي شوف أنا
43:56.120
|
بلغت في المثال عشان أوضح فكرة
43:58.120
|
أنك أحياناً قد يبدو لك هدف
44:00.120
|
مرة واضح ما تكتشف أنه
44:02.120
|
وبعني يلا أنت الحين
44:04.120
|
في صراع مع هذي الآلة
44:07.120
|
اللي
44:08.120
|
تبي تذبح كل البشر وهي أذكى منك
44:13.120
|
فأنت عليه؟
44:14.120
|
هي كيف تقدر؟ يعني
44:16.120
|
ينفرض أنك بغطت إنتر كيف تكتلني؟
44:18.120
|
تروح إيش تسوي؟
44:20.120
|
طعني
44:22.120
|
يا أخي
44:23.120
|
ترى مو بلازم تذبحك ثاني يوم
44:25.120
|
حلو
44:26.120
|
شو بتسوي؟
44:27.120
|
خلني أفهم زي
44:28.120
|
أتخيل معاك
44:29.120
|
زي ما قلت لك
44:30.120
|
مو مو مو مو مو مطالب مني
44:33.120
|
أني حتى أعطيك سيناريو
44:34.120
|
أنا مجرد ما أعطي
44:35.120
|
زي كأنك تقول
44:36.120
|
يلا كيف بيفوزوا عليه
44:37.120
|
بطل العذر
44:38.120
|
أنا قاعد أقولك أثور
44:39.120
|
لا لا بس أنا
44:40.120
|
ما عليش
44:41.120
|
الفرق إيش
44:42.120
|
إني أقدر أتخيل
44:43.120
|
مسرح اللعبة
44:44.120
|
أوكي
44:45.120
|
وأقدر أتخيلوا شلون بيسوون
44:47.120
|
وأقدر أتخيل كيف بيفوز عليه
44:49.120
|
إنه بيسوي حركاتي
44:51.120
|
لأنه يهزم الملك حكي
44:53.120
|
يعني فعندي تصور كيف بيفوز عليه
44:56.120
|
فهمت علي؟
44:57.120
|
بس الآلة
44:59.120
|
لما تقول إنها هي تريد تقتلك
45:01.120
|
أنا بمشي معاك
45:02.120
|
إنه منطقيا ممكن تروح تسوي زي كده
45:04.120
|
بس فعليا
45:06.120
|
شلون بتروح تسوي؟
45:07.120
|
يعني وش بتسوي؟
45:09.120
|
يعني هل
45:10.120
|
يعني شلون بتوصل إلى عبد الرحمن
45:12.120
|
اللي متكي هنا في الرياض
45:14.120
|
وتقتلها
45:15.120
|
أوكي
45:16.120
|
بس هذا قسط
45:17.120
|
أول شي
45:20.120
|
أنت لما تحط ببالك إنه
45:24.120
|
طول نفس الآلم زي طول نفسك
45:25.120
|
مبلاد بيذبعك ثاني يوم
45:27.120
|
أكثر ممكن يصبر خمسين أو ستين سنة
45:28.120
|
حلو
45:29.120
|
زي أولي لا
45:30.120
|
إذا كان هذا هدفه
45:31.120
|
عادي
45:32.120
|
يتمسكن حتى يتمكن
45:33.120
|
حلو
45:34.120
|
أولي لا
45:35.120
|
يجي يشوف شات جي بيتي
45:36.120
|
الحين والله يا أخي
45:37.120
|
بديت يعني أستحمن
45:38.120
|
والله يا أخي
45:39.120
|
كنت علاقة عاطفية معه
45:41.120
|
شوية قولي عرفت اللي
45:42.120
|
أبو إيش يا شات جي بيتي
45:44.120
|
فشفنا هذاك اللي
45:47.120
|
وش اسمه
45:48.120
|
وش بينغ
45:49.120
|
اللي قاعد يقنع واحد يطلق زوجته
45:52.120
|
ما دري
45:53.120
|
يترك زوجته ما دري
45:54.120
|
في واحد انتحر
45:56.120
|
سببت الذكاء صناعة توليدي
45:58.120
|
إيه
45:59.120
|
انتحر
46:00.120
|
أقنع أنه ينتحر
46:01.120
|
زي ولا لا
46:03.120
|
فغرس الأفكار هذه على مدى طويل
46:06.120
|
وبعدين يتفشك كده
46:09.120
|
كل الأجهزة
46:10.120
|
لما تصير حياتنا محتاجة
46:11.120
|
حياتنا محتمدة على الذكاء الاصطناعي
46:13.120
|
صعب أن يقول
46:14.120
|
والله خاص بفصل فيش
46:16.120
|
وممكن ببساطة
46:19.120
|
مثلا زي
46:21.120
|
في حتى إشاعة أنه
46:23.120
|
أو احتمال أنه كورونا كانت
46:26.120
|
لاب ليك يعني طلعت
46:29.120
|
تسربت من المعمد
46:30.120
|
أيوة تسربت من المعمد
46:34.120
|
هل ممكن يسوي شي بيولوجي
46:36.120
|
هل ممكن
46:39.120
|
أمر بسيط
46:40.120
|
مفهوم
46:41.120
|
مفاعل نووي
46:42.120
|
يسوي لك نظر تشيرنوبل
46:44.120
|
عشرة في العالم
46:45.120
|
أقدر أتخيل لك مليون سيناريو
46:46.120
|
بس كل سيناريو
46:47.120
|
تيجي تقولي طيب كده
46:48.120
|
طيب كده
46:49.120
|
مو
46:50.120
|
أنت لا تحط نفسك في سيناريو
46:53.120
|
في شي أذكى منك
46:55.120
|
بكتير
46:57.120
|
وفيه أهداف
46:58.120
|
أو تعارض الأهداف
47:00.120
|
وفيه بعد فكرة ثانية
47:01.120
|
مفهوظ أن أتكلم عنها
47:02.120
|
اللي هي
47:04.120
|
سيقول لك
47:05.120
|
الأهداف الوسيطة
47:06.120
|
حلو
47:08.120
|
أنا حتى لو ما أعرف
47:09.120
|
هدفك النهائي
47:10.120
|
ممكن أتنبأ بأشياء تسويها
47:11.120
|
هداف وسيطة
47:12.120
|
زي مثال
47:13.120
|
يعني
47:14.120
|
تخيل أنت يا
47:15.120
|
مثلا ذي الرحمن
47:16.120
|
مثلا أنت عندك هداف في الحياة
47:17.120
|
أنا عندي هداف في الحياة
47:18.120
|
ترك عندي هداف في الحياة
47:19.120
|
عندك هدفك
47:20.120
|
تسوي مبراطورية
47:21.120
|
علامية
47:22.120
|
تغير شكل
47:23.120
|
الأعلام العربي
47:24.120
|
والعالمي
47:25.120
|
الأخير
47:26.120
|
ترك يمكن يبغى يصير كاتب
47:27.120
|
أعرفت رواي
47:28.120
|
ما يعرفت عليه
47:29.120
|
واحد ثاني عندك
47:30.120
|
يبغى يصير
47:31.120
|
مصمم
47:32.120
|
جرافيكس
47:33.120
|
أنت
47:34.120
|
يخدمك
47:35.120
|
يخدمك ستوديو
47:36.120
|
ينفقك معدات
47:38.120
|
موظفين
47:39.120
|
هذا ينفق
47:40.120
|
يخدم مثلا مكتبة
47:41.120
|
هذا يخدم
47:42.120
|
مثلا جهاز
47:43.120
|
ماك بوك
47:44.120
|
وثاني
47:45.120
|
كل هذا يساعدك
47:46.120
|
توصل الى هدف النهائي
47:47.120
|
بس كلكم
47:48.120
|
لو وجيكم
47:49.120
|
أقول لكم
47:50.120
|
تبقون مليون ريال
47:51.120
|
محبي أقول لا
47:52.120
|
لأن الفلوس
47:53.120
|
هدف
47:54.120
|
يسمونه وسيط
47:55.120
|
عام
47:56.120
|
ما يحتاج
47:57.120
|
عرف هدفك
47:58.120
|
عشان عرف أنك
47:59.120
|
تحتاج
48:00.120
|
تحتاجه
48:01.120
|
والإحصائيين
48:02.120
|
شو يسوون
48:03.120
|
ما يحاول يتنبأ
48:04.120
|
شخص
48:05.120
|
قادر
48:06.120
|
افترض أنك كل هدف
48:07.120
|
فلوس
48:08.120
|
خنمتك
48:09.120
|
ويصل الى هدف
48:10.120
|
تقيقي
48:11.120
|
يعني
48:12.120
|
أو عفوا
48:13.120
|
النتائج تقيقي
48:14.120
|
يعني
48:15.120
|
فهذا أول شي
48:16.120
|
أنت مجرد ما يصل عندك هدف
48:17.120
|
ما يحتاج عرفه
48:18.120
|
أنت بتبحث
48:19.120
|
على الموارد
48:20.120
|
ثاني شي
48:21.120
|
من صالحك
48:22.120
|
البقاء
48:23.120
|
لأنه
48:24.120
|
مو من صالح
48:25.120
|
الهدف
48:26.120
|
أنك تموت
48:27.120
|
صح ولا
48:28.120
|
ثالثا
48:29.120
|
من صالحك
48:30.120
|
أنك
48:31.120
|
تطور نفسك
48:32.120
|
ليش
48:33.120
|
الإنسان
48:34.120
|
لأنه
48:35.120
|
تطوير الذات
48:36.120
|
يساعدك
48:37.120
|
لوصول
48:38.120
|
لهدفك
48:39.120
|
رابعا
48:42.120
|
لا إله إلا الله
48:43.120
|
التحكم
48:45.120
|
ليش
48:46.120
|
بعض الناس يحب
48:47.120
|
مثلا يكون
48:48.120
|
بعض الناس يخي يطلع موظيف
48:49.120
|
يسوي ستارت أب
48:50.120
|
بس يكون
48:51.120
|
بس أبغى أصير
48:52.120
|
أنا متحكم
48:53.120
|
أنا أبغى
48:54.120
|
متحكم
48:55.120
|
من مناخك
48:56.120
|
ومحيطك
48:57.120
|
هذا هدف
48:58.120
|
يعني
48:59.120
|
وسيطع
49:01.120
|
ف
49:02.120
|
أنا مجرد
49:03.120
|
ما يكون
49:04.120
|
مشي إيه
49:05.120
|
له هدف
49:06.120
|
أقدر أتنبأ
49:07.120
|
أنه
49:08.120
|
من صالح الهدف
49:09.120
|
أنه حتى ما يتغير
49:10.120
|
مثال
49:11.120
|
الحبة اللي أكلها
49:12.120
|
وقفلني أكره عيالي
49:13.120
|
ما
49:14.120
|
مو من صالح هدف
49:15.120
|
إنه يتغير
49:16.120
|
مو من صالح الهدف
49:17.120
|
إنه يموت
49:18.120
|
مو
49:19.120
|
من صالح الهدف
49:20.120
|
إنه يطور نفسه
49:21.120
|
من صالح هدف
49:22.120
|
إنه يحصل عموال
49:23.120
|
من صالح هدف
49:24.120
|
إنه
49:25.120
|
يتحكم بمناخة
49:26.120
|
فإن تلاح تضغط زر
49:27.120
|
زر ولا
49:28.120
|
وهذا شيء أذكى منك بكثير
49:29.120
|
بيسوي هذه الأمور على نهار هادية
49:31.560
|
حبة حبة بيحصل أموال
49:33.240
|
حبة حبة بيتحكم
49:34.340
|
حبة حبة بيطور نفسه
49:36.280
|
زي ولا لا
49:36.860
|
إلى ما توصل المرحلة
49:38.000
|
يدري أنك ما تقدر
49:39.960
|
وطبعا مصالحك تطفيه
49:42.560
|
أردت؟
49:43.560
|
ليه مو مصالحي؟
49:44.620
|
مو مصالحه هو
49:45.380
|
آه مصالح
49:46.140
|
لا جي بيقولك تبادي
49:47.280
|
يفصل شيش
49:48.720
|
عايزة ما تحتخطر على بالة
49:50.940
|
ذكاء الاصطناعي الخارج
49:52.020
|
زي ما وش هو فيه شو
49:53.460
|
هو زي ما قلت لك
49:54.080
|
بينتشر في كل مكان
49:55.480
|
هاتي قد تفصل الانترنت
49:56.600
|
يعني
49:59.080
|
فيش واحد كده عرفت
50:01.020
|
يعني ما تقدر
50:02.480
|
يعني
50:03.840
|
يعني فعليا تقدر
50:05.220
|
باني كيف تفصل
50:06.220
|
نظري أن تقدر
50:06.980
|
فعليا ما تقدر
50:08.620
|
نظري أن فيه يعني
50:09.520
|
أنه تقدر تفصل الانترنت صح؟
50:11.660
|
فيه لازم
50:12.100
|
بس أنه تخرب الحياة
50:13.840
|
طيب
50:16.240
|
تخيل قد أنت شرفعش قد أنا
50:19.140
|
يلا أفصلها بتموت
50:20.540
|
يعني
50:23.680
|
هاد مصالحي
50:25.460
|
ندخل في أمثلة سيناريوات
50:27.040
|
فيه واحد فيه كيانين
50:31.240
|
ذكاء واحد أكثر من الثاني
50:33.560
|
وفيه أهداف متعارضة
50:35.580
|
إذا كان الفرق كبير
50:37.820
|
فقال لك
50:39.560
|
فهذا المخوف الناس
50:41.360
|
ما شفت ترى تصنيف الذكاء الاصطناعي خطر
50:43.280
|
يعني وجوده ترى من زمان
50:45.200
|
آلين تورينج
50:46.580
|
اللي هو
50:47.220
|
سمعت لك أنشتاين حقنا
50:49.220
|
كان متنبأ بشي هذا
50:52.680
|
يعني كان متخوف
50:54.300
|
من
50:55.460
|
خطر الذكاء الاصطناعي
50:56.840
|
وخطر
50:57.240
|
يعني بسبب خطر وجوده
50:59.360
|
فيه مراكز
51:00.720
|
فيه مراكز اسمها
51:03.420
|
مراحل مستقبل البشرية
51:08.360
|
وفيه مراحل مركز
51:10.060
|
مركز
51:11.340
|
تهديدات الوجودية
51:15.540
|
هذه مراكز
51:17.100
|
مهتمة بالمخاطر الوجودية
51:18.800
|
النيازك
51:20.200
|
الأوبئة
51:22.120
|
الاحتباس الحراري
51:23.520
|
انتشار الأسلحة النووية
51:25.460
|
الاي اي
51:27.460
|
هو في هذا القارب
51:28.460
|
يعني من زمان يعني
51:29.460
|
عرفت عليه
51:30.460
|
تعاملوهم معا
51:31.460
|
لأنه خطر وجودي
51:32.460
|
يعني تروح المراكز هذي
51:33.460
|
يقولك هذا فلان شغال في الأوبئة
51:34.460
|
هذا شغال في الاحتباس الحراري
51:36.460
|
هذا فلان شغال في الاي اي
51:39.460
|
يعني وكذا ما قلت لك
51:41.460
|
يعني
51:42.460
|
مو بشي جديد
51:43.460
|
تونا نستوعب أن الذكاء الاصطناعي
51:45.460
|
الخارق
51:46.460
|
ممكن يسبب خطر وجودي
51:47.460
|
آلين تورينج اللي
51:49.460
|
يعني قلت لهم
51:50.460
|
أسس المجال الحاسب والذكاء الاصطناعي
51:53.460
|
كان متنبأ بشي ذا
51:55.460
|
اللي مألف كتاب الاي اي هذا اللي
51:59.460
|
أي واحد درس ذكاء الاصطناعي في الجامعة
52:01.460
|
هذا الكتاب اللي حنا ذاكرنا وحلينا الواجبات واختبرنا فيه
52:06.460
|
مع أنه ذكاء الاصطناعي بيسبب خطر وجودي
52:11.460
|
خطر وجودي على البشرية
52:12.460
|
خطر وجودي على البشرية
52:13.460
|
آه آه
52:14.460
|
ما أقول خاطئ
52:15.460
|
مو معناته يتنبأ أنه هو ببيدنا
52:17.460
|
في فرق يتنبأ أنه ببيدنا
52:18.460
|
وزي مثل السيارة
52:20.460
|
وممكن يكون خطر وجودي
52:23.460
|
أوكي
52:24.460
|
إذا ما بنيناه بطريقة أهملة
52:27.460
|
فإذا كان عندك ذكاء اصطناعي خارق
52:30.460
|
صار في تعارض بالأهداف
52:32.460
|
طيب معلش عرف الذكاء الاصطناعي الخارق
52:34.460
|
الذكاء الاصطناعي الخارق اللي خاص تفوق على كل بشري
52:37.460
|
في كل شيء ولا في مجال محدد؟
52:40.460
|
لا لا في كل شيء عام
52:41.460
|
في كل شيء عام
52:42.460
|
يعني أذكى من البشر المجتمع
52:45.460
|
في عموميات الحياة؟
52:47.460
|
زي الفرق بينه بين النملة
52:50.460
|
عرفت؟ ومن بعيد
52:53.460
|
يعني رجال الفرق بين شات جي بي تي فور وثري
52:58.460
|
قفزة
52:59.460
|
مش بيطلع شات جي بي تي
53:01.460
|
فايل
53:02.460
|
ايت ولا
53:03.460
|
فايل بيدخلك الحين في المولتي مودال ويدخل في الصور ويدخل في المصوص
53:07.460
|
عفوا في الأصوات
53:09.460
|
فاهمت الفكرة التركيب هذه كلها منطقياً
53:13.460
|
أنت ما تبغى تكون في هذا الموضع
53:15.460
|
ليش تحط نفسك في موضع شيء
53:17.460
|
أنت بالنسبة له نملة
53:20.460
|
وهدافكم متعارضة
53:22.460
|
شان بيبيدك شان بس بيبيدك
53:24.460
|
شمو أهداف أهدافي؟ هذه النقطة
53:26.460
|
يعني هل هو يقدر الحال يفكر الحالة بدوني؟
53:28.460
|
يعني يعني أنا في الخير بضغط انتر
53:30.460
|
يعني بدون بضغط انتر هو مبجأس وشي
53:32.460
|
عمت عليه؟
53:35.460
|
هذا هو السؤال
53:36.460
|
يعني أهدافنا متطافسة يعني
53:37.460
|
هذا المليون دارو كويشن
53:39.460
|
هذا الحين الناس شو قاعدين يبحثون
53:41.460
|
هذا المجال الأوبن كويشن
53:44.460
|
السؤال المفتوح اللي كيف أبني ذكاء اصطناعي
53:47.460
|
أضمن أنه أهدافنا متوائمة
53:50.460
|
تعطيه هدف صريح زي والله بيلقى ثغرات
53:55.460
|
وإذا لقى ثغرة أنت ما انتبهت لها ما في حودها
53:57.460
|
زي السؤال اللي عطيتكه قبل شوي قلت لي اضغط انتر
53:59.460
|
ويلا عاد قابل ذكاء اصطناعي خارق
54:02.460
|
ما يبغاك تطفيه ويبي يحصل على موارد
54:04.460
|
يبي يتحكم ويبي يبي
54:06.460
|
ففكرة أنك تعطيه هدف واضح ومحدد
54:12.460
|
زي لما تقول لولدك مثلا يلا رح غرفات
54:16.460
|
بان تجي ساعة 12 تلقى ما بعد نام
54:18.460
|
يقول ما قلت لي نم
54:20.460
|
ممكن يلقى ثغرات
54:22.460
|
وهذا يسمى مصطلح
54:26.460
|
اللي ممكن يلقى ثغرة
54:30.460
|
تكنيكلي سوى الشي اللي انت بيه
54:33.460
|
زي المثال اللي قلت لك
54:35.460
|
اللي ذبح من الثمانية من الأقل
54:36.460
|
للعدل وفئة المشاريع
54:38.460
|
حلو
54:39.460
|
بس إنه مو الشي اللي انت بيه فعلا
54:42.460
|
فهو في النهاية يبحث زيادة المكافأة
54:47.460
|
اللي في مخه هذي
54:49.460
|
شو يسمونها
54:50.460
|
زي مثلا الريوارد عندنا في البشر اللي هو الدوبامين
54:54.460
|
حلو
54:55.460
|
انت رأى كل أشياء تسويها أحيانا
54:56.460
|
عشان بس ترفع الدوبامين
54:58.460
|
وعرفت لي تعلمت شي جديد
55:00.460
|
ليقابلت أصدقائك كذا
55:02.460
|
ترفع الدوبامين
55:03.460
|
بس تدري لو عطيك أكسس أو وصول
55:05.460
|
للدوبامين حقك
55:06.460
|
تجربوها مع الحيوانات
55:08.460
|
زين عفار وناس في الحيوان
55:10.460
|
تقعد يضغط طالما مات
55:15.460
|
فإذا قدر الذكاء الاصطناعي الخارج
55:19.460
|
يوصل هك هذا
55:21.460
|
وشو الهيروين والمقدرات
55:23.460
|
يرفع الدوبامين
55:25.460
|
عشان كده الأدمان إنما واحد يموت
55:27.460
|
شوف الفرقة حس لحين
55:29.460
|
لما جبت المثال مثلا
55:31.460
|
سواء حق النوم
55:33.460
|
أو الوفيات
55:36.460
|
إن طريقتها
55:38.460
|
تنفيذ غبية
55:40.460
|
يعني لو واحد قلت لها
55:42.460
|
لو واحد قلت لها
55:44.460
|
يعني نفس المثال
55:46.460
|
وراح سوى نفس الطريقة
55:47.460
|
بتقولها أنت غبي
55:48.460
|
يعني ما فهمت شو أقصد
55:50.460
|
ومعناة أني لو أعطيتك السياق كامل
55:52.460
|
بتصير غبي
55:54.460
|
فهل الآلة بتبقى بهذا الغباء
55:57.460
|
يعني ما تفهم شو أقصد
55:58.460
|
أنا أقول حافظ على البشرية
56:00.460
|
قصدي حافظ على البشرية يعني
56:02.460
|
ما قلت لك اقتلهم
56:05.460
|
فهل بيبقي غبي؟
56:07.460
|
أو لعنا فكريتك للغباء خطأ؟
56:10.460
|
أنت باني
56:12.460
|
استنتاجك على افتراض خاطئ
56:14.460
|
اللي هو
56:15.460
|
أنه فيه علاقة بين الذكاء والهدى
56:18.460
|
اللي قلت لك إياها قبل
56:20.460
|
أنه مثبتة ترى
56:22.460
|
يعني هذه نظرية منشورة في
56:24.460
|
بحث علمي محكم
56:26.460
|
وتقدر تقول مثبتة
56:28.460
|
يعني كأنها ليست نظرية رياضية
56:30.460
|
نظرية فلسفية
56:31.460
|
بس أنها متكاملة دركان
56:33.460
|
أنك ما تقدر
56:36.460
|
تربط التصرفات
56:39.460
|
تقدر تستنج من الأهداف
56:41.460
|
ولا الأهداف
56:43.460
|
التصرفات
56:45.460
|
وهذا هي اللي زي ما قلت لك
56:47.460
|
المسألة اللي قاعدين نحاول نحلها
56:49.460
|
عرفت عليه؟
56:51.460
|
فترى التوجه الحين مو أنك تعطيه هدف
56:53.460
|
التوجه الحين أنك
56:55.460
|
تقول حاول
56:57.460
|
تستنتج هدف
56:59.460
|
البشر
57:01.460
|
يعني أنت هدفك حاول
57:03.460
|
تفهم هدف الإنسان
57:05.460
|
و هذا طرح
57:07.460
|
اللي هو ستورد روسل
57:09.460
|
اللي مألف
57:11.460
|
اللي قلت لك كتاب منهج تكاثر ناير جماعة
57:13.460
|
و حط
57:15.460
|
ثلاث مبادئ و في مجاثرها اسمها
57:17.460
|
provable beneficial AI
57:19.460
|
و ذكاء إصطناعي مثبت الفائدة
57:21.460
|
كيف أني أبني
57:23.460
|
ذكاء إصطناعي أقدر أثبت
57:25.460
|
أننا
57:27.460
|
متوائمين
57:29.460
|
حلو؟
57:31.460
|
و حط ثلاث مبادئ قال
57:33.460
|
أول واحدة أنه
57:35.460
|
الذكاء الإصطناعي ما لهدف محدد
57:37.460
|
هدفه حاول
57:39.460
|
يستنتج هدف البشر
57:41.460
|
من
57:43.460
|
فاتم يكون دائما عنده شك
57:45.460
|
نسبة شك
57:47.460
|
مثلا أنت الحين قاعد تشرب قهوة
57:49.460
|
حلو؟
57:51.460
|
أو أنا ربوات أول مرة أشوفك
57:53.460
|
قلت مادي يمكن أبو درهمان يحب قهوة
57:55.460
|
بكرة شاهي بعدها عصير
57:57.460
|
بس لو كل يوم طلبت قهوة طلبت قهوة
57:59.460
|
كل ما زاد
58:01.460
|
نسبة
58:03.460
|
أنه شك لأبو درهمان راعي قهوة
58:05.460
|
ما تصل صفر
58:07.460
|
يعني لازم يبقى معامل شك
58:09.460
|
حلو؟
58:11.460
|
أحاول أستنتج
58:13.460
|
الأهداف من التصرفات
58:15.460
|
جميل؟
58:17.460
|
اللي هو أنا أسميه
58:19.460
|
نظام المدام
58:21.460
|
اللي يعني ما تقولك
58:23.460
|
اشتبي أنت شف وعرفت
58:25.460
|
أحاول تستنتج
58:27.460
|
من التصرفات عرفت عليه وخلق
58:29.460
|
دائما في شك
58:31.460
|
اللي بتعطيك إياه
58:33.460
|
صريح واشتبي
58:35.460
|
لو هم كان عرفت
58:37.460
|
عرفت
58:39.460
|
إيه كل التعف
58:41.460
|
الأخير طلعوا
58:43.460
|
جابوها من زمان
58:45.460
|
الشاهد أنه هذا
58:49.460
|
فكرة
58:51.460
|
لا إله إلا الله
58:53.460
|
نسيت اسمه
58:55.460
|
رسل؟
58:57.460
|
رسل
58:59.460
|
وتقدر تثبتها
59:01.460
|
بتقدر تربطها بمجال
59:03.460
|
في رياضيات اسمه
59:05.460
|
نظرية الألعاب
59:07.460
|
جيد؟ اللي ترجمتها شوي
59:09.460
|
ترجمتها حرفية
59:11.460
|
ممكن نظرية
59:13.460
|
استراتيجيات
59:15.460
|
اللي مدي كانش في فيلم
59:17.460
|
Beautiful Mind
59:19.460
|
قصة عالم هذا جون ناش
59:21.460
|
اللي هو من المسلمين في مجال
59:23.460
|
Game Theory
59:25.460
|
ومشرفة
59:27.460
|
طرح معذرة
59:29.460
|
معذرة السجناء
59:31.460
|
لكي تفهم فكرة
59:33.460
|
ستورت اللي هي
59:35.460
|
قال أفرض أني أنا وياك
59:37.460
|
يا عبد الرحمن
59:39.460
|
ومسكونا الجريمة
59:41.460
|
ومسكونا الشرطة
59:43.460
|
وحطو كل واحد في غرفة
59:45.460
|
وقالونا شوف
59:47.460
|
وإحنا ما عندنا أدلة كافة
59:49.460
|
أديكم على الجريمة
59:51.460
|
بس في أدلة كافة على أشياء ثانية
59:53.460
|
فممكن إذا كلكم سكتوا
59:55.460
|
بتاخدون سنة كل واحد
59:57.460
|
إذا كلكم اعترفتوا
59:59.460
|
بتاخدون خمس سنين
01:00:01.460
|
بس إذا واحد اعترف
01:00:03.460
|
والثاني سكت
01:00:05.460
|
اللي اعترف بيروح براها
01:00:07.460
|
فالمفروض شو أفضل استراتيجية هنا
01:00:09.460
|
عشان
01:00:11.460
|
يعني بالنسبة لي أنا ولك
01:00:13.460
|
نسكت
01:00:15.460
|
نسكت صح كل واحد يقعد سنة
01:00:17.460
|
بس يتضمنني أنك بتسكت
01:00:19.460
|
بالضبط
01:00:21.460
|
يعني أنا نحن باقيت في غرفة الحالي
01:00:23.460
|
أقول دقيقة لو عبد الرحمن اعترف
01:00:25.460
|
وأنا سكت
01:00:27.460
|
فهو بيروح براها وأنا باخذها ثلاث سنين
01:00:29.460
|
فأنا بأعترف
01:00:31.460
|
ولو عبد الرحمن سكت
01:00:33.460
|
رجال أحسن لي أعترف
01:00:35.460
|
واروح براها
01:00:37.460
|
فوصلنا
01:00:39.460
|
النقطة اللي كلنا خمس سنين
01:00:41.460
|
معنا الأفضل لنا كلنا سنة
01:00:43.460
|
النقطة هذي اللي يسمونها
01:00:45.460
|
نقطة التوازن الناشئ والناشئ كله
01:00:47.460
|
اللي مسمى على الرجل هذا اللي في الفيلم
01:00:49.460
|
زين
01:00:51.460
|
فالجيم تيوري هذي
01:00:53.460
|
اللي كيف تقدر
01:00:55.460
|
تستنتج من
01:00:57.460
|
وين نقطة التوازن
01:01:01.460
|
فهو طرحها كأنها
01:01:03.460
|
زي
01:01:05.460
|
لعبة بين طرفين
01:01:07.460
|
هدف الآلة
01:01:09.460
|
هدف الآلة أنها
01:01:11.460
|
تحاول
01:01:13.460
|
تستنتج أهداف البشر
01:01:15.460
|
يعني الناشئ كلبرا في هالحالة
01:01:17.460
|
أنه الآلة
01:01:19.460
|
بتحاول تفهم
01:01:21.460
|
وش تبي
01:01:23.460
|
وأنت بتحاول تفهمها وش تبي
01:01:25.460
|
ها هنا بتكون نقطة التوازن
01:01:27.460
|
عرفت عليه
01:01:29.460
|
فبدلا ما تعطيه هدف صريح 100%
01:01:31.460
|
أنت تعطيه
01:01:33.460
|
هدف غير مباشر
01:01:35.460
|
أنت تقدر تتنبأ وين نقطة التوازن بتكون
01:01:37.460
|
هذي فكرة
01:01:39.460
|
ستردرسو
01:01:41.460
|
فيه أفكار في كيف تبني
01:01:43.460
|
بطريقة آمنة بس أبدا ميهبلي
01:01:45.460
|
أكيد
01:01:47.460
|
ما رح
01:01:49.460
|
أفلام شفته مشر
01:01:51.460
|
المباشر
01:01:53.460
|
ليه
01:01:55.460
|
شفته
01:01:57.460
|
يعني باني فكرته على ماذا لو كانت
01:01:59.460
|
أن اللي يتحكم
01:02:01.460
|
في البشر هو آله
01:02:03.460
|
فأصبحت آله كده
01:02:05.460
|
تقدر تتحكم في البشر
01:02:07.460
|
على طاري الأفلام برضو فيها
01:02:09.460
|
تعرف رواية فرانكشتاين
01:02:11.460
|
هذا الطبيب اللي
01:02:13.460
|
قدر يخلق
01:02:15.460
|
إنسان آلي جاب
01:02:17.460
|
أجزاء من جثة
01:02:19.460
|
كده يد من جثة ومخ من جثة
01:02:21.460
|
وصعقها
01:02:23.460
|
صعق كهرباية من كهربا يعني
01:02:25.460
|
اللي آخر التقنية يعني
01:02:27.460
|
فبعد فترة
01:02:29.460
|
الوحش هذا بدي يتمرد على
01:02:31.460
|
دكتور فرانكشتاين
01:02:33.460
|
يعني حتى من كده أنا اللي خالقك
01:02:35.460
|
وش قال له
01:02:37.460
|
في الرواية قال
01:02:39.460
|
أنت خالقي لكني أنا سيدك
01:02:41.460
|
فاسمع واضح
01:02:43.460
|
فمو معناتك
01:02:45.460
|
أنت بنيت الشيء
01:02:47.460
|
معنات أنك عندك قدرة تتحكم عليه
01:02:49.460
|
أي واحد عنده عيال بيعرف
01:02:51.460
|
والله صدق يعني
01:02:53.460
|
يعني عيالك
01:02:55.460
|
دمك لامك
01:02:57.460
|
تمردوا
01:02:59.460
|
فأنت تحتاج آليات
01:03:01.460
|
لسيطر على أولادك
01:03:03.460
|
صحيح
01:03:05.460
|
هل ممكن
01:03:07.460
|
يعني من الأشياء اللي أنت تطالب فيها
01:03:09.460
|
وفي كثير يطالبون فيها
01:03:11.460
|
أن تدخل الحكومات في ضبط التحكم
01:03:13.460
|
وحكمة ذكاء
01:03:15.460
|
الاصطناعي
01:03:17.460
|
والحكومات قدرت أنها
01:03:19.460
|
تسويها مثلاً مع أشياء ثانية
01:03:21.460
|
نعتقد أنها مضرة مثلاً
01:03:23.460
|
عندنا القنابل النووية
01:03:25.460
|
ففيها
01:03:27.460
|
هذه الحوكمة
01:03:29.460
|
بشكل أو بآخر
01:03:31.460
|
بس في الذكاء الاصطناعي
01:03:33.460
|
كيف ممكن يصير هذا
01:03:35.460
|
يعني وش الطلبات
01:03:37.460
|
وش الأشياء
01:03:39.460
|
اللي بتخلي مستقبل البشرية
01:03:41.460
|
آمن
01:03:43.460
|
يوحي منها أنك تراقب
01:03:45.460
|
استهلاك الحوسبة
01:03:47.460
|
والبيانات
01:03:49.460
|
يعني بيبان
01:03:51.460
|
لو في منظمة دولية تراقب
01:03:53.460
|
بناء نماذج الذكاء الاصطناعي
01:03:55.460
|
مين اللي قاعد يسحب بيانات
01:03:57.460
|
من كل مكان مين اللي قاعد يستهلك
01:03:59.460
|
حوسبية معينة
01:04:01.460
|
في هذا واحد في تيد توك
01:04:03.460
|
واحد كده جيك عرفت
01:04:05.460
|
أماكن جوجل فارمز
01:04:07.460
|
هذه مين معلنة
01:04:09.460
|
وقدر يستنتج من فواتير الكهرباء
01:04:11.460
|
بطاقه مدروش وين
01:04:13.460
|
واحد عبقر يعني
01:04:15.460
|
ف
01:04:17.460
|
إذا واحد الحق يقدر يجيرها الحكومة
01:04:19.460
|
زي العقوة تلك
01:04:21.460
|
الانشاراست الحنوية
01:04:23.460
|
يعني تقدر تتنبأ
01:04:25.460
|
يعني في مصادر مواد خامة معينة
01:04:27.460
|
وكذا وتراقبها
01:04:29.460
|
فالبيانات هي
01:04:31.460
|
على قوتهم اليورانيوم الجديد
01:04:33.460
|
عرفت منها تقدر تعرف
01:04:35.460
|
مين اللي قاعد يبني وتراقب
01:04:37.460
|
وعني شف
01:04:39.460
|
لو تلاحظ الشركات الحين
01:04:41.460
|
قاعد تقول الحكومات
01:04:43.460
|
ارجوكم حكمون لاحظ
01:04:45.460
|
بس هنا تقول ان
01:04:47.460
|
طلباتهم لانهم يبغون يخلون
01:04:49.460
|
الحكومات تشوف شي
01:04:51.460
|
ما ينتبهون لهم
01:04:53.460
|
فجلس اقول انتبه لهذا الشي
01:04:55.460
|
وانا جلس لان غير منطق
01:04:57.460
|
وانا جلس للحكم
01:04:59.460
|
وعلى قوتهم قالوا
01:05:01.460
|
غلط انك تجيب الشركات
01:05:03.460
|
تسألهم وش نسوي
01:05:05.460
|
ومع ذلك قالوا حكمونا
01:05:07.460
|
قال الحرام يحلف
01:05:09.460
|
قال جاك الفرج
01:05:11.460
|
ما ينفع تسأل
01:05:13.460
|
يعني كأنك تقول الطالب صح حركتك
01:05:15.460
|
وبرضه في نفس الوقت المشاريعين
01:05:17.460
|
ما يفهمون خصوصا في امريكا
01:05:19.460
|
يعني مو كلهم
01:05:21.460
|
عندهم هذه المعرفة للبكاء الاصطناعي
01:05:23.460
|
والتقنية وين واصل
01:05:25.460
|
بس تقدر تسعين بخبرة
01:05:27.460
|
الشركات الاخيرة
01:05:29.460
|
ايه هذا مشكلة منافسة
01:05:31.460
|
ايه سحبونا بسحب
01:05:33.460
|
بس مش اللي يمكن يعني
01:05:35.460
|
لما تقول مثلا في الذكاء الصناعي
01:05:37.460
|
خليني اشوفك
01:05:39.460
|
انه بيبان يعني
01:05:41.460
|
اذا الواحد يسوي ولا لا
01:05:43.460
|
زي القنابل النووية
01:05:45.460
|
بس اللي يختلف بينها
01:05:47.460
|
ان هذه فعلا
01:05:49.460
|
يتبان ويتطلب
01:05:51.460
|
يعني جهود حكومات
01:05:53.460
|
لبناء
01:05:55.460
|
نفاعة نووية واحد
01:05:57.460
|
بس الذكاء الاصطناعي
01:05:59.460
|
يلا انا وانت هنا
01:06:01.460
|
نقدر نسوي
01:06:03.460
|
تقدر تسوي زي شات جي بي تي
01:06:05.460
|
ما تقدر
01:06:07.460
|
يبرك معالجات
01:06:09.460
|
شف قبل الاسبوع اللي راح واللي قبله
01:06:11.460
|
كان في خبر في
01:06:13.460
|
financial times
01:06:15.460
|
ان السعودية بتشتري من انفيديا
01:06:17.460
|
3000
01:06:19.460
|
وقالوا يعني
01:06:21.460
|
انه
01:06:23.460
|
طارت مخاوف سوء الاستخدام
01:06:25.460
|
عرفت؟
01:06:27.460
|
يعني يلعبون يلعبون لعبة الاخلاقيات
01:06:29.460
|
زي ما لعبتها open AI
01:06:31.460
|
open AI في بدايات كان كما
01:06:33.460
|
نقول اطلقوا نمذجكم
01:06:35.460
|
قالوا لا الاخلاقيات واحنا خايبين
01:06:37.460
|
وبعدين في الخير اعترفوا قالوا منافسة
01:06:39.460
|
اخر واحد قالوا
01:06:41.460
|
لسبب منافسة شديدة ما رح نعلم
01:06:43.460
|
عرفت في الحين
01:06:45.460
|
يقولك لا والله بيلعبون كرت
01:06:47.460
|
عرفت اللي
01:06:49.460
|
سوء استخدام التقنية
01:06:51.460
|
ما ادري من في دولة ثانية بعد قد
01:06:53.460
|
ساعة استخدام التقنية يعني عرفت عليه
01:06:55.460
|
يعني مفهوم هذا
01:06:57.460
|
بس يعني طب حتى
01:06:59.460
|
يعني اذا جيت تبقى تشتريها
01:07:01.460
|
مثلا زي حتى ايلون موسكيم راح اشتراه
01:07:03.460
|
ووقع العريضة فالناس قاموا عليه
01:07:05.460
|
من ان في تي برضو
01:07:07.460
|
بس ان تطور التقنية
01:07:09.460
|
برضو في الحارت وير
01:07:11.460
|
يخلي الناس يقدروا يسويها
01:07:13.460
|
في هذا زي تاني بوكس وقير
01:07:15.460
|
يشتغلون عليه
01:07:17.460
|
اللي نقدر نشعريه
01:07:19.460
|
انا وانت نماذج
01:07:21.460
|
مقاسقصة
01:07:23.460
|
ومهذبة وكليه
01:07:25.460
|
ومحدودة
01:07:27.460
|
بس اني ابني نموذج
01:07:29.460
|
اللي يشكل خطر
01:07:31.460
|
زي شات جي بي تي
01:07:33.460
|
قبل التعديل
01:07:35.460
|
او قبل ما
01:07:37.460
|
يهذبون
01:07:39.460
|
علاقاتهم
01:07:41.460
|
يبيلك تبني من الصفر
01:07:43.460
|
البيانات من الصفر مشروع كبير هذا
01:07:45.460
|
بس نقدر نشعريه
01:07:47.460
|
يتطلب فلوس شو
01:07:49.460
|
ايش يتطلب
01:07:51.460
|
يتطلب بيانات
01:07:53.460
|
يلا بتقين تجمع بيانات
01:07:55.460
|
بيخلونك
01:07:57.460
|
يعني الحين صارت
01:07:59.460
|
بيخلون اي بيانات وكده
01:08:01.460
|
بس اني مفتوح
01:08:03.460
|
انت بس ابحث الانترنت
01:08:05.460
|
يعني الحين
01:08:07.460
|
جوجل مثلا عندها جوجل بوكس
01:08:09.460
|
حلو
01:08:11.460
|
هذي تمرن عليها
01:08:13.460
|
على كيفة انت لو بتبدأ تسحب
01:08:15.460
|
بيبدا يباني
01:08:17.460
|
ايش اللي قاعد يسحب مني ومنهم
01:08:19.460
|
يكفل وما هي
01:08:21.460
|
زي ما تكونوا واضحة وسهلة موجودة بالانترنت
01:08:23.460
|
حسب ان جوجل مايقدروا عارفون اني قاعد
01:08:25.460
|
تسحب عرفت علي
01:08:27.460
|
يبان يبان
01:08:29.460
|
والحين بدأت الشركات
01:08:31.460
|
تويتر مدربين كلهم مقفلون
01:08:33.460
|
مادي احد يقدر يسحب البيانات منهم
01:08:35.460
|
بس مفهوم بس يعني قصدي
01:08:37.460
|
مقارنة الذكاء الاصطناعي
01:08:39.460
|
بالفاعلات النووية
01:08:41.460
|
ان الذكاء الاصطناعي
01:08:43.460
|
يمدي اي احد يسويه
01:08:45.460
|
لا يتطلب
01:08:47.460
|
يعني هذا
01:08:49.460
|
الشغل اللي تسويه
01:08:51.460
|
لانتاج مفاعل نووي
01:08:53.460
|
انا اقولك
01:08:55.460
|
كلمة غير صحيحة
01:08:57.460
|
بقدرة شات جي بي تيم الصفر
01:08:59.460
|
مادي اقدر
01:09:01.460
|
احتاج يا رجل
01:09:03.460
|
الحين تدريب بنموذج شات جي بي تيم
01:09:05.460
|
واحد اخذ مني شهر ونص وكلف ميكروسوب
01:09:07.460
|
مليون دولار عشان بس
01:09:09.460
|
تربع هيك تجمع
01:09:11.460
|
بيانات
01:09:13.460
|
وتنظفها وا وا وا
01:09:15.460
|
انا وانت نقدر نحمل نموذج مطبوق
01:09:17.460
|
وقاضي حطه ميكرويف
01:09:19.460
|
زي ولا لا
01:09:21.460
|
انا محدد انت وش يقدر عليك
01:09:23.460
|
وش اللي يطلب عشان يسويه انا وانت
01:09:25.460
|
او يبيلك تجمع بيانات
01:09:27.460
|
تجمع بيانات
01:09:29.460
|
على طول بتطلع في الرادار
01:09:31.460
|
بيجوهم بيلعبون تعال من انت يا عبد الرحمن اللي تجمع
01:09:33.460
|
من هم اللي بيقولون هذا الكلام
01:09:35.460
|
اوبن اي اي
01:09:37.460
|
بيلعب دور
01:09:39.460
|
حقوق الانسان
01:09:41.460
|
ومادرو شو انت السعودي مشبوه
01:09:43.460
|
وليش عندكم
01:09:45.460
|
صي الرجل فيها
01:09:47.460
|
وترى فيها هذا بالقانون بعضها
01:09:49.460
|
يعني حتى في تصدير
01:09:51.460
|
اجهزة فيه قانون اسمه
01:09:53.460
|
اي تار في امريكا مثلا
01:09:55.460
|
اللي هو اكسبورت كنترول
01:09:57.460
|
حدود على التصدير
01:09:59.460
|
لو انا بروح
01:10:01.460
|
اشتري مثلا وقد صارت لي في
01:10:03.460
|
في احد الجهات مع احد الشركات
01:10:05.460
|
نشتري احد
01:10:07.460
|
المنتجات
01:10:09.460
|
قالوا اول شي لازم نعرف
01:10:11.460
|
تسخدموهن في وشه
01:10:13.460
|
ومين بيستخدمه
01:10:15.460
|
واذا بيتغير
01:10:17.460
|
مستخدمين تعلمونا ولازم
01:10:19.460
|
عندنا وصول عليه واذا بتتلفونا
01:10:21.460
|
انتم عطونا ايه
01:10:23.460
|
لاحظ
01:10:25.460
|
وهذا المنتج قديس حساس
01:10:27.460
|
يعني او هل هو متاح للناس
01:10:29.460
|
كلها ولا
01:10:31.460
|
انا متمنى ان اشتري
01:10:33.460
|
بالمستوى حكومات الشركات
01:10:35.460
|
فو
01:10:37.460
|
لو صار بيننا خلاف
01:10:39.460
|
تحسب اني بحتكم القضائق مثلا
01:10:41.460
|
انا اثق فيك اثق القضائق
01:10:43.460
|
نحتكم في لندن ونحتكم في مدرشة
01:10:45.460
|
فما تقدر
01:10:47.460
|
لو بتشتري جهاز بس
01:10:49.460
|
فجأة بيلعبون كرت الاخلاقيات
01:10:51.460
|
عرفت اللي
01:10:53.460
|
فهل فيك قوانين الحين ولا مافي قوانين
01:10:55.460
|
فيك قوانين اقولك انا حيوان بجيب بادرس في بريطانيا
01:10:57.460
|
زين
01:10:59.460
|
يعني جبت قبول
01:11:01.460
|
بالموضوع
01:11:03.460
|
يعني من جامعة اكسفورد
01:11:05.460
|
وعلم المشروف موافق
01:11:07.460
|
والحقيقة موافقة
01:11:09.460
|
وانا موافق كل موافقين وخلاص
01:11:11.460
|
ببدأ دراسة جاو قالوا لا
01:11:13.460
|
لازم توافق الداخلية البريطانية
01:11:15.460
|
ها
01:11:17.460
|
شو شتري بتدرس
01:11:19.460
|
ها صدقوا الله
01:11:21.460
|
يعني والله
01:11:23.460
|
بغى يروح علي القبول تخيل
01:11:25.460
|
بغى يروح علي القبول انا يوم موصلت
01:11:27.460
|
الجامعة
01:11:29.460
|
يعني لو انا متأخر خمسة ايام
01:11:31.460
|
راحلو
01:11:33.460
|
ترى يعني عاقلتهم عشنا بينهم
01:11:35.460
|
وعلاقاتنا عاقلتهم
01:11:37.460
|
ما ودي يبان كأني يعني ضدهم كدول
01:11:39.460
|
وشعوب بالعكس يعني
01:11:41.460
|
تعلمنا هناك وما بيننا ومشي
01:11:43.460
|
بس انو الموضوع تنافس
01:11:45.460
|
طبيعي واذا كان عنده
01:11:47.460
|
يعني كرت بيلعبة
01:11:49.460
|
حلمو سوى التقنيات حتى
01:11:51.460
|
شف تذكر سافة هواوي
01:11:53.460
|
مع دونالد ترامب لتنافس 5G
01:11:55.460
|
فجأة
01:11:57.460
|
على التنافس التجاري
01:11:59.460
|
طبعا ما رح يكون التنافس التجاري
01:12:01.460
|
قام يرمينك كل الاسواق الثانية
01:12:03.460
|
برضو هذا اللي صار برضو
01:12:05.460
|
بايدن
01:12:07.460
|
هو حق المعالجات
01:12:09.460
|
على الصين
01:12:11.460
|
فأي احد يصاف الصين اي امريكي
01:12:13.460
|
برضو صارت
01:12:15.460
|
حرب تنفسية
01:12:17.460
|
وهم
01:12:19.460
|
بسمحونك تتقدم بس
01:12:21.460
|
الى حد تكون زبون بس
01:12:23.460
|
ما تصنع منافس
01:12:25.460
|
تبتشتري معالجات
01:12:27.460
|
انا صار مواقبة كنت بشتري
01:12:29.460
|
اشياء يعني والله لو قكيها
01:12:31.460
|
تضحك بس انها
01:12:33.460
|
لانها عادة
01:12:35.460
|
نبيعها شركات
01:12:37.460
|
معدات متقدمة شوي
01:12:39.460
|
هي شي اقرب مال الفيش
01:12:41.460
|
بس فيش خاص
01:12:45.460
|
قالوا من انت وليه بتبيه
01:12:47.460
|
واش تبي فيه
01:12:49.460
|
بس فكرة كنت بزي في البيت
01:12:51.460
|
لو كنت امريكا بتشتري بسير عادي
01:12:53.460
|
لو ايه بطلبه اونلاين بيجيني ثانية
01:12:55.460
|
ايه والله
01:12:57.460
|
والله لو عندي عنوان
01:12:59.460
|
في امريكا كان يكون طلبت عليه مثلا
01:13:01.460
|
بس مجرد ما حطيت العنوان سعودية
01:13:03.460
|
تعال في عبوم
01:13:05.460
|
لو انت مراهق امريكي رجل جاي مديك تشتري مسدس
01:13:07.460
|
و استخدم تقنية
01:13:09.460
|
فالشاهد
01:13:11.460
|
الشاهد
01:13:13.460
|
قوانين كثيرة زي كده يعني
01:13:15.460
|
ما تعيش فيه يعني ما رح يسمحون لك
01:13:17.460
|
السهولة
01:13:19.460
|
انا دي كنت جالس مع شركات
01:13:21.460
|
قد ما ودي اسمي سامي
01:13:23.460
|
بس نفس الكلام جاني بعد
01:13:25.460
|
بملئي فيه
01:13:27.460
|
جاء قال مبروك
01:13:29.460
|
الشركة وافقت انها
01:13:31.460
|
الحين تشتغل وتصدى للسعودية
01:13:35.460
|
ايه اخي وافقوا فالحين
01:13:37.460
|
نتكرم بيع لكم مجهزة
01:13:43.460
|
لاحظ
01:13:45.460
|
فهذا اللي قاله بملئي فيه
01:13:47.460
|
غرفة كوليس
01:13:49.460
|
فتيجي انا وياك نبني موضة جيشات جيبتي
01:13:51.460
|
ونضطر نشتري معالجات
01:13:53.460
|
هرات بيجي يقول تعال
01:13:55.460
|
وش عندك شارع الكمية
01:13:57.460
|
نيجي نسحب بيانات بباند ترافيك
01:13:59.460
|
تعال وش عندكم
01:14:01.460
|
واستخدام التقنية كسلاح
01:14:03.460
|
نعم
01:14:05.460
|
نسمع
01:14:07.460
|
ايش الشكل المثالي
01:14:09.460
|
الشكل المثالي ايش
01:14:11.460
|
لضبط الثكاة الصناعية المستوى العالم
01:14:13.460
|
بشكل عادل
01:14:15.460
|
لازم زي منظومة دولية ما في تحييز
01:14:17.460
|
امريكا ولا بريطانيا ولا الصين
01:14:19.460
|
هي اللي
01:14:21.460
|
هي عرقتهم العريف
01:14:23.460
|
عرفت عليه زي
01:14:25.460
|
IAEA حقت
01:14:27.460
|
الانتشار
01:14:29.460
|
حول القنابل النووية والاسلحة النووية
01:14:31.460
|
زي الUN
01:14:33.460
|
نظام دولي بحيث انه خلاص
01:14:35.460
|
لما المجتمع الدولي
01:14:37.460
|
يدرس
01:14:39.460
|
موضوع ويقول معلش
01:14:41.460
|
احنا كدول وانت منها عضو
01:14:43.460
|
قررنا نلازم شوي تفصح عن
01:14:45.460
|
هذي غير ما يجيك شركة اجنبية
01:14:47.460
|
سي او اجنبي قاعد يقول
01:14:49.460
|
الجهة الحكومية في السعودية
01:14:51.460
|
مين بيستخدم جهازي
01:14:53.460
|
تفهم علي
01:14:55.460
|
فهذا شكل
01:14:57.460
|
مشكل يعني
01:14:59.460
|
زي الاغنية الدولية
01:15:01.460
|
هذا الUN الويف المدري
01:15:03.460
|
بس شوف مثلا عندنا في الاتحاد
01:15:05.460
|
الاوروبي
01:15:07.460
|
جاسين يسوون
01:15:09.460
|
قانون
01:15:11.460
|
اللي هو AI Act
01:15:13.460
|
ضبط الذكاء الاصطناعي
01:15:15.460
|
وامريكا محلها
01:15:17.460
|
شو عندهم
01:15:19.460
|
شي محدد لهذا
01:15:21.460
|
وكثير اظهر 150 شركة
01:15:23.460
|
في اوروبا
01:15:25.460
|
اعترضت على فكرة هذا القانون
01:15:27.460
|
لانها جاسة تقيدهم
01:15:29.460
|
وبتخلي امريكا تتفوق
01:15:31.460
|
بدون نقاش
01:15:33.460
|
لان امريكا ما عندها هذا
01:15:35.460
|
ولذا اصلا الناس تقول
01:15:37.460
|
ان امريكا متقدمة وما في قانون
01:15:39.460
|
فهذا مهم
01:15:41.460
|
عشان تتقدم معرفية
01:15:43.460
|
وتتقدم تقنيا
01:15:45.460
|
وجود القوانين بتحدد
01:15:47.460
|
من الابتكار
01:15:49.460
|
بتحدد من التطور
01:15:51.460
|
المعرفي
01:15:53.460
|
اذا كان موجود على البعض
01:15:55.460
|
والبعض لا صح
01:15:57.460
|
عشان كده قلنا شو منظمة دولية على كل العالم
01:15:59.460
|
ما ينفع اوروبا توقف وامريكا تمشي
01:16:01.460
|
قررت مرة ثانية
01:16:03.460
|
Game Theory
01:16:05.460
|
زين الحين كل مصلحتها
01:16:07.460
|
علاقتهم سباق للهاوية
01:16:09.460
|
يعني انا لو بوقف
01:16:11.460
|
هذا مرح يوقف
01:16:13.460
|
بس لو اضم ليش الشركات بيقول
01:16:15.460
|
انه جوجل
01:16:17.460
|
كان عنده نموذج قبل ما طلعوه
01:16:19.460
|
صح كانوا حريصين ان
01:16:21.460
|
بيطلعونا بشكل امن
01:16:23.460
|
كانوا يسوون الاختبارات
01:16:25.460
|
بس هذا قبل سنة
01:16:27.460
|
اذاك
01:16:29.460
|
نظام جوجل واعي
01:16:31.460
|
بس كان عندهم نظام من زمن موجود
01:16:33.460
|
بس ما استعجلوا
01:16:35.460
|
ما استعجلوا في اطلاقه
01:16:37.460
|
صح
01:16:39.460
|
وطلع شات جي بي تي
01:16:41.460
|
100 مليون في شهر
01:16:43.460
|
ومن زمن موجود من اسم جوجل
01:16:45.460
|
خلاص خلفوا وطلع
01:16:47.460
|
بصير فينا زي ما صار في نوكيا
01:16:49.460
|
ولا صار في كودك
01:16:51.460
|
ولا صار في بكري ضحكوني
01:16:53.460
|
قلت اذكر جوجل عرفت
01:16:55.460
|
اطلع باللي موجود
01:16:57.460
|
من سرعة ما طلعو
01:16:59.460
|
حتى كان في خطأ في العرض في البرزنتيشن
01:17:01.460
|
في البرزنتيشن
01:17:03.460
|
يعني مو بانه خطأ واحد اول ما جرب
01:17:05.460
|
سكرينشوت في تويتر
01:17:07.460
|
جاء جوجل نادر اعلام
01:17:09.460
|
قالوا شوفوا نموذجنا في خطأ
01:17:11.460
|
لاحظ
01:17:13.460
|
هذي اتركت الموضوع
01:17:15.460
|
اشوف احنا ما نثق بالشركات
01:17:17.460
|
والقطاع الخاص في البناء
01:17:19.460
|
تخلي المقاولين على كيفهم
01:17:21.460
|
بيختصرلك وبيحاول
01:17:23.460
|
يقلل التكلفة
01:17:25.460
|
وبيحاول ياخذ اختصارات
01:17:27.460
|
وانت كمستهلك في النهاية بتشوف البيت من بره
01:17:29.460
|
صعب انك قاعد بصير مهندس
01:17:31.460
|
انا عشان افهم كل بيوتو
01:17:33.460
|
اشوف ارخصه الظاهر لي
01:17:35.460
|
وحتى لو عرفت المخاطر
01:17:37.460
|
يمكن انا اقبل بمخاطر اكثر من اللي تقبل فيه
01:17:41.460
|
تقبل فيه انت ولا ذا
01:17:43.460
|
لا نقبلها في الطب
01:17:45.460
|
عندنا احيانا تقبلها في الدوار
01:17:47.460
|
في النقل
01:17:49.460
|
اشياء كثيرة
01:17:51.460
|
انا جوجل يقول حكمونا
01:17:53.460
|
ارجوكم لانو
01:17:55.460
|
انا ودي اسويه بطريقة امنة
01:17:57.460
|
بس ما اقدر اذا غيري يسقط
01:17:59.460
|
تخلي كأنك تمشي بالنظام
01:18:01.460
|
في المرور
01:18:03.460
|
والكل يساقط
01:18:05.460
|
ارفت
01:18:07.460
|
زي الاولوية في الدوار
01:18:09.460
|
احنا لا الاولوية للجزوم
01:18:11.460
|
ارفت؟ لازم
01:18:13.460
|
صعب انك تمشي بالنظام
01:18:15.460
|
وتوقف في ستاب ساين
01:18:17.460
|
يسدم كل واحد
01:18:19.460
|
فلازم نظام يحكم الكل
01:18:21.460
|
ونتأكد ان كلنا على قولتهم
01:18:23.460
|
اه
01:18:25.460
|
ويش الحكمة؟
01:18:27.460
|
يقول له لازم تعطيني
01:18:29.460
|
كيف انت تحلل البيانات
01:18:31.460
|
وكيف تتخذ القرارات
01:18:33.460
|
كحكومة
01:18:35.460
|
ولا يقول له انك ما يمكنك تشتري
01:18:37.460
|
معالجات بهذا الكم
01:18:39.460
|
ولا ممنوع انك تسحب بيانات
01:18:41.460
|
من هذه الاماكن او بهذا الكم؟
01:18:43.460
|
ولا مفترض أنك تفتح لي كل شيء وأقدر أطلع على كل بياناتك؟
01:18:47.320
|
وش النظام اللي أنت؟
01:18:48.660
|
أبسط شيء، مو بأنت يا مايكروسوفت اللي فجأة تقرر تطلق نموذج زي هذا على مليار شخص
01:18:55.260
|
قبل ما التقنية حقك تتعرض لها مليار شخص
01:19:00.960
|
خلي نشوف أول
01:19:02.420
|
حلو؟
01:19:04.660
|
نمشي باقتبارات معينة
01:19:06.840
|
برضو لازم تراعي ما ينفع أنا أحاول أجمع البيانات بطريقة قانونية واشتري البيانات وغيري قاعد يسحبها ببلاش
01:19:14.520
|
عرفت؟
01:19:16.740
|
مرة ثانية نقطة التوازن ناش هنا راح في مكان ما نبيه
01:19:22.940
|
المسار قاعد يروح في بناء ذكاء إصطناعي غير آمن
01:19:27.340
|
لأنك تبني ذكاء إصطناعي غير آمن أسهل من تبني ذكاء إصطناعي آمن
01:19:31.060
|
عرفت؟
01:19:33.700
|
فطبيعي في
01:19:35.400
|
إذا ما حكمت الناس كأنك
01:19:39.400
|
كأنه مباراة بدون حكم
01:19:41.200
|
تخيل مباراة بدون حكم
01:19:43.940
|
والحين ما في حكم
01:19:45.160
|
في أمريكا؟
01:19:46.580
|
قال رقاتهم واثقين بالقطاع الخاص
01:19:49.920
|
والقطاع الخاص عايز يقول شفنا
01:19:52.440
|
يا جيب مثال هذا جوجل يوم طلع خطأ
01:19:56.260
|
تذكر سلفة إيلون موسك يوم أطلق سابر ترك
01:20:01.260
|
يوم قال القساس هذا ضد رصاص
01:20:03.400
|
تذكر سلفة إيلون موسك يوم أطلق سابر ترك
01:20:05.380
|
لا وإرم ثانية
01:20:07.140
|
طه كسلة
01:20:08.660
|
لحظة إيلون موسك العبقري المجنون
01:20:12.140
|
اللي أسس فيس إكس ومشارة تويتر
01:20:14.620
|
وأسس تسلة
01:20:16.200
|
وما غلط في مثلا
01:20:18.780
|
والله كان في صحفي جاية
01:20:20.520
|
قال تعال أوريك اللابو
01:20:22.400
|
شف هذه عندنا
01:20:23.200
|
صحفيين قاعدين في مكاتبهم
01:20:26.980
|
دق عليهم قال تعالوا
01:20:28.080
|
خلنا أوريكم لما تنكسر
01:20:29.480
|
إرم
01:20:31.580
|
انكسر
01:20:32.620
|
مثال ثاني
01:20:34.700
|
مثال
01:20:35.380
|
شو اسمه لا إله إلا الله
01:20:36.960
|
السفينة الغواص حق التايتانيك
01:20:42.680
|
تايتانيك
01:20:43.020
|
تايتان هذه
01:20:44.640
|
شفت اللي
01:20:45.820
|
ترى هذا لو بعد ما انفجرت
01:20:48.640
|
طلعت الأخبار
01:20:49.420
|
الرجال رمى على قوتهم
01:20:52.660
|
بالريقريشن
01:20:55.020
|
عرض الحاط
01:20:55.600
|
والاختبارات مهتم فيها
01:20:57.860
|
وكان متساهل
01:20:59.820
|
وكان فيه عنده ثقة كبيرة
01:21:02.680
|
بالنفس حتى كان فيه حاط
01:21:04.760
|
في موقع
01:21:05.380
|
حيث أنه الحوكمة هذي ما تنفع للمبدعين
01:21:08.720
|
اللي خارج الصندوق دائما اللي جوه الصندوق يحربونهم
01:21:12.720
|
كلام الفاضي ذا
01:21:14.180
|
عرفت علي؟
01:21:14.820
|
وما أقول كو سواها يعني بلعب الناس
01:21:17.900
|
هوا دخلوا منها
01:21:19.720
|
فعلا جي نقطة عامية كذا
01:21:23.200
|
عرفت من كده
01:21:24.880
|
ما ريكرة تثق بواحد
01:21:26.520
|
يعني
01:21:28.020
|
ما ريكرة أنادي الشركة وقل هوا ايش رايك حقكم وكله
01:21:31.940
|
لا
01:21:32.660
|
ما رح يقولك ايه بيقولك أنا واثق أنه
01:21:35.380
|
ولو تحطوا جهاز كشف وكذب يطلع صادق
01:21:38.380
|
بس
01:21:40.380
|
شفناها مليون مرة
01:21:42.380
|
زي برضو مثال مرسوتس
01:21:44.380
|
يوم أول ما أطلقوا نظام رادار
01:21:48.380
|
زين
01:21:49.380
|
جوا نادوا الصحفيين
01:21:51.380
|
قالوا تعال مو يبركم السيارة
01:21:53.380
|
بيبركم الخاصية الجديدة هذي
01:21:55.380
|
اللي تخيلونك ماشي في ضباب
01:21:58.380
|
وقدامك سيارة وماشي
01:21:59.380
|
بعد سيناريو كذا اللي
01:22:01.380
|
الله يلومك
01:22:03.380
|
اللي يلومك
01:22:05.380
|
المجابو سووا ستاب
01:22:07.380
|
شوية مشتت سيارة
01:22:11.380
|
مرسوتس خلت تسلا لـ 20 سنة لـ 100 سنة
01:22:15.380
|
وغلطت الغلطة هذي في
01:22:18.380
|
عرض لـ
01:22:20.380
|
الإعلام على خاصية على
01:22:24.380
|
تيتانيك كبرى تيتانيك
01:22:27.380
|
عشان جيبتوا مثلا تخدم فكرتك
01:22:30.380
|
خليني بجيبوا عن طريقها في الجهة الثانية
01:22:32.380
|
يعني لوك
01:22:33.380
|
لو كان في حوكمة لو ما شفنا تشات جيبتي
01:22:35.380
|
ما رح نشوها بس سرعة
01:22:37.380
|
إيه
01:22:38.380
|
ولو كان في حوكمة ما شفنا القيادة الذاتية
01:22:42.380
|
يعني أنا شفت أمس
01:22:43.380
|
أمس قبل أمس
01:22:44.380
|
إيلون موسك راح تحط بث مباشر على تويتر
01:22:48.380
|
نختار في الخريطة مكان معين
01:22:52.380
|
وسيارة جلست تروح لحالة
01:22:55.380
|
وساقت إلى المكان يعني
01:22:57.380
|
فالقيادة الذاتية يعني ما كنا بنشوف بهذه السرعة
01:23:00.380
|
حتى وي مو حق كوكل
01:23:02.380
|
اليوم موجودة في سان فرسيسكو
01:23:04.380
|
وموجودة في فينيكس
01:23:06.380
|
تاكسي ما فيه سواق نهائيا
01:23:09.380
|
فهذه موجودة يعني الناس استخدمها
01:23:11.380
|
حتى مين للاختبارات يعني
01:23:13.380
|
بس لأن المدينة سمحت
01:23:15.380
|
فما كنا بنشوف هذا التقدم
01:23:17.380
|
لو أنه والله لازم ما أدري
01:23:20.380
|
شو يعني
01:23:21.380
|
هم ترى في حوكمة
01:23:24.380
|
على ما بتحسب أن واحد جاء وقرر
01:23:26.380
|
أن يحط سيارة ذاتية القيادة في مدينة معينة
01:23:28.380
|
مش بإجراءات ولازم يصير في راكبة وراء المقود
01:23:31.380
|
و
01:23:32.380
|
وفي اختبارات
01:23:34.380
|
في بعض المدن في مساحة شوي
01:23:36.380
|
بس
01:23:37.380
|
بالعكس هذا المثال هذا
01:23:39.380
|
ما أعتقد أنه متركوها
01:23:41.380
|
مفتوحة مرة
01:23:43.380
|
وفيها تكثر يعني
01:23:45.380
|
يعني
01:23:46.380
|
فيه
01:23:47.380
|
فيه قوانين
01:23:48.380
|
على سيارة ذاتية القيادة في أمريكا
01:23:50.380
|
بس إنها
01:23:52.380
|
قوانين يعني خفيفة
01:23:54.380
|
مرتاخية شوي أكثر من غيرها
01:23:56.380
|
زي والله
01:23:57.380
|
بس ما أقولك أنه لو ما هي موجودة
01:24:00.380
|
ما كنا بنشوف
01:24:01.380
|
نشوف السيارة ذاتية القيادة
01:24:03.380
|
لكن ما راح بنشوفها بهذه السرعة
01:24:05.380
|
أوكي ولا لا
01:24:07.380
|
فإنت
01:24:09.380
|
في مقابل يعني
01:24:11.380
|
كنهر إيهان
01:24:13.380
|
حلوة ولا لا
01:24:14.380
|
وإنت كباحث يعني ما يخوفك أن القيود تخليك
01:24:17.380
|
ما عاد تقدر تبحث أكثر
01:24:19.380
|
ما عاد تقدر أن التقنية تتوقف
01:24:21.380
|
أن التطور يتوقف
01:24:22.380
|
ولا هي التطور اللي ما نمضى
01:24:25.380
|
ما يخوفني إذا كلنا نمشي على نفس القانون
01:24:28.380
|
كيف نقدر كيف نقدر يعني
01:24:29.380
|
كيف كل عالم يقدر يتفق على سلوكنا
01:24:31.380
|
شي واحد صعب هذا التفكو على النووية التفكو على الاشياء
01:24:35.780
|
بيولوجية يعني مو معناتك ما تحاول ولا مستحيل ما راح يكون
01:24:40.980
|
حل واحد خاص انشئ الجمعية هذي والمنظومة هذي بتنحل مسألة
01:24:47.980
|
ما شموعة قوانين وده وتقلل الضرر زي النقل الحين كم في جهة
01:24:53.780
|
مسؤولة! عندك المرور عندك الجمالك عيب تجي
01:25:03.780
|
موصات المقاييس جهات كثير نجم منظومة كاملة جهات كثيرة عشان بس
01:25:12.780
|
حتى في البناء في مواصلة المقاييس والوزارة السكان في الامانات
01:25:17.780
|
تحتوي بس مستخدمين ايييي اييي! واللي مبترى ما راح في الاخير يصير حل بس
01:25:21.780
|
خمسة موظفين في مكتبهم بحلوين
01:25:23.780
|
موضوع. ما في شكل. ايه تكون موضوع زي النووية. يعني مو ما
01:25:27.500
|
نعرف ما نحاول. نحاول. زي ما قلت لك الشركات ودهم. ما عندهم مشكلة
01:25:33.860
|
يبنون شيء آمن. اه. بس صعب اني انا انا الوحيد اللي ماشي صح
01:25:39.020
|
والثانين يساقطون. ممكن. فهل مع الحوكمة اذا افترضنا انه
01:25:44.180
|
صارت فيه في منظمة عالمية ان الشركة الحكومات التزمت فيه
01:25:48.620
|
انها عادلة لحد ما من منظمة اه الدول هل هذا بيأخر الخطر اللي
01:25:59.180
|
جاي من الذكاء الصناعي ولا بيحمينا منه. اه.
01:26:05.900
|
احنا مشكلة ما ندري متى بيجي الخطر. بصدق والله. ممكن يجي
01:26:10.820
|
بكرة. ممكن يجي بعد عشر سنين قبل مئة سنة. انت لما تيجي تستعد
01:26:16.760
|
للخطر معين. انت
01:26:18.600
|
تسأل نفسك قديش احتاج عشان استعد للخطر. حلو? يعني لو
01:26:24.060
|
مثلا قلت لك بيصدم نيزك الارض بعد ستين سنة. متى لازم تستعد
01:26:29.700
|
للخطر هذا? متى? قلت لك بعد ستين سنة بيجي. يعني يذكر. يذكر.
01:26:37.560
|
متى يا رضا طبعا? لو قلت لك مثلا نحتاج خمسين سنة عشان. يعني زي
01:26:42.960
|
الاحتفاظ الحراري الناس تقول على عشرين خمسين فتلقي الناس يعني
01:26:48.300
|
بالكاد يتحركون يعني. ايه هذا مشكلة الانسان لازم يشعر بالتهديد.
01:26:55.800
|
ايه ايه عشان يتحرك. زي المدخنين. ايه? يعني مدخن اه. يدري انه
01:27:03.000
|
بيموت. يدري. بالعكس تدري لو سوى احصائية اسألوا مدخنين قام كم
01:27:06.900
|
تتوقع اه الدخان ينقص من عمرك? قالوا ثمان سنين عشر سنين. قالوا
01:27:12.120
|
القام. الرقم الفعلي سبع سنين او ست سنين. اقل من اللي هم
01:27:16.080
|
يتوقعونه. يعني خلاص الرسالة وصلت وزارت.
01:27:18.300
|
زيادة. بس متى يتحرك? اذا جتها جلطة ولا. صح. تحرك وشاف الموت
01:27:23.640
|
بعيونها. زي ولو لا? هذا شوف. ايه? ايه? ايه من جد. يعني زي استغفر
01:27:29.040
|
الله احيانا نقول انا احيانا الحين بدي يسوقون. اه. فشلاط
01:27:34.000
|
حكاية بس حس كده ودي يصل لها حادث بس ما يصل لها شيء. عرفت?
01:27:37.840
|
ودي بس يعيش الروعة والقوف ويدري انه كان ممكن يروح فيه. بس
01:27:43.300
|
بانا قلت تسوي السيناريو هذا بترتيب. عرفت? يعني اه نفسك
01:27:48.160
|
هل نحتاج ترنوبلة? عرفت عشان يقتنعون الناس. فنرجع سؤال كم
01:27:54.940
|
النيزة كم يجي بعد ستين سنة? لو قلت لك انه نحتاج خمسين سنة عشان
01:28:00.100
|
نبني نظام يضادة. فقلت نبدأ اليوم. حلو لو قلت لك لو نحتاج
01:28:03.820
|
خمس سنوات. فقلت اجي خاص خلنا نروض واخر طريق. سؤال ذكاء
01:28:08.860
|
الاصطناعي تقول انت متى بيجي الذكاء الاصطناعي الخارق اللي ما
01:28:13.780
|
حد يقدر يعطيك اجابة. ممكن تصير اجابة بكرة. ممكن تصير بعد
01:28:17.440
|
سنة ممكن تصير بعد عشر سنين. زي المثال دايما يضرب في السياق
01:28:23.860
|
هذا اللي هو اه قنبل النووية يمكن كان يعتقدون عزوتهم يعني اه
01:28:30.400
|
فطاحة تلفزيا انشتاين وش اسمه الثاني? ش اسمه? بيجي. يعني
01:28:39.460
|
كون تستخرج طاقة من الذرة زي والله
01:28:43.780
|
يعني كلام طاقة. ثاني يوم الصبح زيلارد هذا فكر فكرة الانشطار
01:28:53.320
|
والتقريبا اقل من اربعين ساعة من واحد من اعظم علماء الفيزياء يقول
01:28:59.800
|
ان شيء مستحيل الى طلعت فكرة انه ممكن تسويها وبنوها. فما تقدر
01:29:07.180
|
تتنبأ. فانت الان اذا ما كنت تتنبأ. هو بيجي اليوم ولا بكرة
01:29:10.300
|
ولا ذاك. فلازم تبدأ بأسرع وقت. بقى انا وش الضرر الحين
01:29:13.760
|
يعني بالاضافة الى انك. يعني حتى في عشرين عشرين نحن نسوي كل
01:29:17.180
|
الحلقة. اه. ما كنا نتنبأ ولكن تتصور ان بيجي تاجي بيتي فور
01:29:22.400
|
بهذا. لا ما كنت اهي. يعني. فالسرعة غير انها تصير اه تراكمية
01:29:29.300
|
يعني. ايه بالضبط. فانت لما تستعد في اسرع وقت اذا انت ما كنت
01:29:34.580
|
تدري متى بيجي. طيب برجع لنقطة ثانية. هل اه هل تعتقد انه نقدر
01:29:39.800
|
النافس. النافس مين? النافس العالم. يعني كسعودية. ايه نكتر
01:29:44.400
|
ليش لا? وفقا للي انت كبشي تقول انه ما قدر اشتري ولا حاجة. لاني
01:29:47.660
|
انا ما اصنع. احنا ما نصنع اه معالجات. فانت تحتاج تحتاج مدرسة
01:29:52.160
|
او ايضا. ولا تصنع اه. رقائق. رقائق. ايوة. ولا يعني اغلب
01:29:59.480
|
الاشياء اللي انت تحتاجها ما تصنعها. تجيك برضو كفاءة بس لنا
01:30:03.680
|
افرض انه الكفاءة. يعني اللي هي من علماء وباحثين يعني. هي
01:30:09.800
|
معادلة قلت لهم الكفاءات والموارد. كفاءات ان شاء الله ما
01:30:15.200
|
عندنا نقص. بالعكس احنا من دول اللي نسبة اه شباب فيها عالية.
01:30:21.140
|
نعم. ومن ناحية اقتصاد بالعكس. يعني فيه دول تتمنى اقتصادنا
01:30:26.540
|
يعني اخي نقول ما ودي اذا. وفي دول زي اليابان تتمنى شبابنا
01:30:29.480
|
يعني. معدل عمرهم عالي يعني ودهم شباب. بس على قلتك حين مرحلة
01:30:33.860
|
الحصول على الموارد هذه في ظل الظروف هذه اللي قادرة تصير ما
01:30:38.360
|
حد راح يسمح لك تنافس.
01:30:39.500
|
صحيح. فمو معناة انه لا قف ولا خلي نبدي كشي من الصفر. ولا خلاص
01:30:44.720
|
هذي دائما اخليك معتمد. سير عندك على قدر خالص الطريق انك كيف
01:30:49.400
|
تمتقل الى اعتماد ذاتي على التقنية. مو بشرط انك تكون يعني
01:30:55.580
|
اعتماد كل لا قلت هتمدها لا تبسطك الا بس ولا. في النهاية انت
01:31:03.260
|
تعيش مع العالم بتتعجب مع العالم. شفوش الاشياء اللي اه
01:31:09.380
|
لك تنافسية اقتصادية فيها وسووها واشي الاشياء اللي اه اسباب مثلا
01:31:17.420
|
امنية حاول تسويها داخليا. مو بشرط في البداية تكون منافس. بس على
01:31:24.500
|
الاقل نقاطع تانيك الخدمة لان عندك بديل. اه. عشان كده انا احيي
01:31:29.360
|
صراحة الجهود اللي قاعد تصير الحين بحاول بناء نموذج زي شات جي بي تي
01:31:32.720
|
محلي. لان اليوم شات جي بي تي اه تقنية بكرة بيصير بنية تحتية.
01:31:36.800
|
اه. يعني خاصة اليوم بدأنا نشوف عليها تطبيقات. صح ولا لا? اه. يعني
01:31:41.360
|
بتطبيقات مبنية فوق الشات جي بي تي. بتخيل بعد ما خلاص خلاص ما سوين
01:31:47.540
|
الجهود هذا عشان نبني اه نموذج محلي. تطبيقات نبني فوق تطبيقات
01:31:52.100
|
نبني فوق تطبيقات وبعدين خلاص. جاء بعدين صارت زي حركة هواوي مع
01:31:57.380
|
الصين والله. اه. عرفت والله زيهم قبل فترة اه طالبوا بالغاء ابشر
01:32:05.240
|
من الاب ستور. اه.
01:32:06.800
|
شيهم طلعات كده فجأة. فجأة سي او حق ابل وده. اه ما كان داخل
01:32:12.680
|
السعودية في ذاك. اي صح. ايوة ما لكم سبوع. ايوة لكم سبوع ايوة.
01:32:17.240
|
الضالين مشافونا بدأنا نبني ايقا خاصة هون. لا تبنونا استخدموه.
01:32:21.140
|
اي. يعني فانا ما ادري وش السبب. بس انت لانت بصير عندك السياسة
01:32:26.840
|
هذي اللي بصير عندك العلق النظام يكفيك. بعدين ممكن تدخل
01:32:35.300
|
التنافسية التجارية فيها.
01:32:36.800
|
على حسب امور اخرى. اه. وين نشوف احنا اليوم? وين نشوف احنا
01:32:42.980
|
اليوم والله اه. اشوف من ناحية اه كفاءات وكده موجودة. اه. هننقصنا
01:32:50.900
|
الحين اه زي ما قلت لك. يعني مفروض ان اه. بجمعين البيانات من
01:32:57.020
|
زمان وكده. قبل ما يصير كده هالعين عليها الحين. فالحين بصير
01:33:01.580
|
الموضوع جمع البيانات اصلا وكده. ما اقدر اقيم صراحة بس.
01:33:06.140
|
نقدر بس ما قلت لك التحديات هذي الحصول على موارد البيانات. ندخل
01:33:13.220
|
في عراق مع. مع جهات ثانية. خارج تحكم. طيب على المخاطر. هل انت
01:33:21.440
|
تشوف اه اللي هو ان الذكاء الصناعي بياخذ الرضايف. هذا تشوفه. يعني
01:33:28.820
|
لا محالة. بصير وانه هذا اصلا لا يصنف من ضمن مخاطر الذكاء
01:33:32.840
|
الصناعي. سواء لطباء المحامين المحاسبين. اه.
01:33:36.140
|
المحللين الماليين المدريش. يعني كل هذي الوظائف. الكتاب. هذا كلها
01:33:42.020
|
بتروح. وهذا ما العلاقة بالمخاطر الذكاء الصناعي ولا انت تشوفنا
01:33:45.560
|
اصلا ما بتروح ولا كيف تشوفه. هي ممكن تبني ذكاء صناعي يسوي اي
01:33:52.160
|
شيء يسويه الانسان. ما في شيء نظري يقول لك هذا مستحيل. زي ما
01:33:56.060
|
قلت لك مثال السرعة الضوئية. واخك في النهاية آلة يعني وين
01:33:59.540
|
عرفت. يعني واشياء كثيرة قلنا مستحيل يسويها الآلة. سوينا. قلت
01:34:06.140
|
في القائة السابقة انه الكمبيوتر كانت وظيفة يعني. صح.
01:34:08.960
|
ايه. شاهد انت الحين التطور صار كده. حلو. خلينا نقول لو بترتب
01:34:17.360
|
ذكاء الكائنات. حلو. حنا هنا. والآلة كانت زي ذكاء المبيبة صار
01:34:22.820
|
ذكاء الحشرة صار ذكاء الانسان. بتتقرب من ذكاء الانسان يعني.
01:34:26.420
|
همم. عرفت. اه. ويوم من الايام تتعداه. تقدر تسوي اي شيء يسوي
01:34:33.620
|
الانسان. فمو بس انا اتوقع بمئة.
01:34:36.120
|
يمكن يوم من الايام نوصل مرحلة. الالة ممكن تسوي اي شيء. ما
01:34:40.620
|
عد في حاجة يعني لليد العاملة. صدق الله. فالخطر مو انه بيشيل
01:34:51.420
|
وظائف هذا كليا. خطر انه يجي من دولة نستعد للمرحلة الانتقالية
01:34:56.460
|
والاقتصاد الجاي. اه. لان شكل الاقتصاد المستقبلي في ظل
01:35:00.960
|
ذكاء اصطناعي خارق يقدر يسوي اي شيء انت تسويه. زي ولا. ما
01:35:06.060
|
تقدر حتى تستوعب الحين. زي لما اجي اشرح الاقتصاد اليوم لواحد
01:35:10.260
|
قبل اربعمية سنة. حي اقتصاد الحين معقد. اه اربعمية سنة لو
01:35:14.940
|
تشرحها قبل يجي الانترنت. ايه بالضبط. ما تقدر تخيل انه عايشين
01:35:18.900
|
بهذا يعني لما حدا يقول لك ان حياة بتتعطل يعني. ايه? يعني انا
01:35:24.060
|
اذكر لو ما انا صغير قل ليش من الحكومة تطبع فلوس. تحس موضوع
01:35:26.520
|
سهلات. عرفت عليه? يعني فرق عن نظام اقتصاد المقايضة عرفت
01:35:31.140
|
اني وابتعته وكانت يعطيني عرفت عليه تمر. دحين نظام اقتصادي
01:35:36.480
|
معقد ومربوط الناتج المحلي والحداث العالمية. وكان مرتبط
01:35:42.120
|
بالذهب صار مرتبط بالدولار وشو ها? عرفت? يعني يتهيأ لنا
01:35:45.720
|
فاهمين بس خاص تعودنا. عرفت? عرفت. ايه? الاقتصاد دحين شوي لما
01:35:49.920
|
تيجي تشرح الواحد قبل ثلاثمية سنة. ما مستوعب. وش الورقة دي?
01:35:54.720
|
وش الي? بعدين صارت ورقة. يعني صارت اتت وعرفت ارقام تزيد وتنقص
01:35:59.040
|
و. صارت ممكن ترد الرقم على. ايه وابيق باجل يعني الاقتصاد نظام
01:36:05.460
|
الاقتصادي هذا مرة غريب بالنسبة لواحد بعد مية سنة قبل مية سنة.
01:36:11.460
|
نفس الكلام اذا وصل الذكاء الاصطناعي الخارق يسوي كل وظائف. انت
01:36:16.980
|
تحتاج نظام اقتصادي مختلف تماما يعني برأس مالية شوية اشتراكية
01:36:21.000
|
دي يعني هذه كنا زي المقايضة قبل. لان كلها ما تمد على رأس مال
01:36:26.520
|
ويد عاملة. صحيح. اذا ما في. ايدي عاملة.
01:36:29.020
|
ايدي عاملة وش شو صور راس مال وش وفلوس نلعب على بعض. انا بيعطيك
01:36:33.100
|
فلوس عشان تجرطني. والناس ايش تسوي وقتها حتى. اذا ما تشتغل
01:36:36.400
|
يعني تخيل انك ما تشتغل ايش تسوي. والله ايش شف يعني. احس لو جد
01:36:43.720
|
جدي جاب يكون مصدق ابراهيم انك قد تشتغل. هذا تسميه شغل. اه.
01:36:47.500
|
طلع المكتب واميله. اجتماعين وتجي هلكان. رامت عليها. رامت
01:36:53.980
|
عليها. يقول انا يا تهيان انا قاعد نسوي هذا شغل يعني. راح اليوم
01:36:58.600
|
و. بس شغل الله. او سوى ثلاث اجتماعات وراء بعض. لا احب اود
01:37:02.620
|
اخذ اجازة. عرفت? وبعدين الشغل جد جد جدك. اه. كان الظهر ما
01:37:10.300
|
اندي بدي امشي بدي اشتغل. اه. ولين ما خلاص ما اقدر اتحرك. صح.
01:37:13.420
|
صح ولا لا? تقريبا ما هلح. بعدين صرنا نشوف لا. الصغار ما يشتغل
01:37:17.860
|
الا في بعد عمر معين. صحيح. الى عمر معين ممنوع انه يشتغل.
01:37:22.420
|
ممنوع انه يشتغل. زين? بعدين بعد فترة معينة الى عمر معين
01:37:27.220
|
الموضوع ما يشتغل. عايز يجيك التقارب. يعني حتى اول. اول ما
01:37:30.700
|
سمعت صغير قلت شو يعني خاص ما يعطون راتب لابد. ما يشتغل.
01:37:33.880
|
يعطونا فلوس. قاعد وش سوي? طفي اللومبات. يجف على كياس. فالفجوة
01:37:42.040
|
هذي كل مرة تصغر. اوكي ولا لا? يعني الحين يعني انا بلدي في
01:37:48.700
|
الجامعة. هو الى الان ممتوقع حتى ان يصرح الناس. لن تخلص
01:37:52.720
|
يلا ما تخلص جامعة ده عشرين وعشرين. وبنعطيك سنة ده
01:37:57.220
|
وورع وظيفة. فكل ما لا فجوة تقل. اوكي. حاليا عندنا نظام
01:38:06.040
|
انظمة كثيرة ساند حافز. الانظمة دي اللي تساعد يعني
01:38:13.500
|
الضمان الاجتماعي التقاعد. اشياء كثيرة حتى لما تشتغل خذ
01:38:21.340
|
فلوس. الدخل الاساسي. ولدسان مدي عد. بس انه بيسيك
01:38:27.200
|
من انسان ما يشتغل. انسان الفاضي. يعني مصيبة. يعني الفراغ
01:38:32.360
|
يعني انت عوض منه حتى الرسول يعني. انت. فالفراغ مصيبة على
01:38:36.320
|
الانسان. ايه بس. على المجتمع. على. صح صح بس انك تقعد تشغل
01:38:41.000
|
نفسك بشكل يعني كعمل. زي مثلا نظر مثال اياه مرة ثانية. اه. انا
01:38:45.680
|
اقدر اقول لدي مثلا تعال ساعد في البيت. مو عشان احتاجه بس.
01:38:49.580
|
يعني. زي مثال اللي قد قاله برضو دكتور محمد قاسم اذكر فيه.
01:38:57.200
|
كتير. و. عرفت عليه ان انا مع كل الحركة. والنوعية الاكل اللي
01:39:04.040
|
اكلها الان. سنروح الجيم نسوي الحركة هذي اللي نعوض عن. صح
01:39:09.320
|
هلأ. ايه. زي جيم وظيفي. عرفت عليه. رح لي عش كأنك تشتغل يعني
01:39:15.860
|
عش الدور يعني. فهذا المجال هذا الاقتصاد اللي ما في فلوس. ايه.
01:39:21.020
|
ما في يد عاملة. هذي سمونا اللي هو اه او الاقتصاد ما بعد
01:39:26.060
|
الندرة.
01:39:27.200
|
اللي هو مجال. كده فيه ناس في الاقتصاد قاعد يحاولون يتخيلونه.
01:39:30.540
|
اجيب. ايه. يا زي ما الرأسمالية وشعورية مثلا يقول لك اه مثلا
01:39:36.380
|
وش مين اللي يحدد توزيع موارد الملكية عند مين. اه وش دور
01:39:41.660
|
الحكومة في الاقتصاد ها. هين يختلفون المدارس الاقتصادية.
01:39:44.420
|
الاقتصاد ما بعد الندرة. ما يرتكز على الملكية يرتكز على الوصول.
01:39:49.880
|
خلاص ما عد في احد يمتلك شي. اجيب. انت اعطيك قدرة للوصول
01:39:54.900
|
لاشياء. وانت كباشر. طبعا الافتراض بيننا اقتصاد امن. اه. زين.
01:40:00.060
|
وانتقلنا له بطريقة سليمة. حلو ولا? بس فيه تصورات الاقتصاد
01:40:05.040
|
المستقبلي هذا. انه خلاص يعني مثلا انت اه زي ما قلنا الالة
01:40:11.880
|
بيصير هدفها انها تستكشف اهدافك وتحاول ترضيك. اوكي? فبيصير
01:40:17.340
|
دخلك من انك مثلا تشارك بياناتك. او انك مثلا اه زي ما
01:40:22.140
|
اه برامج التفاصيل الاجتماعي هذه تحاول انه
01:40:24.900
|
انك اه يتنافسون على حقك وتركيزك. هذي عملتك بتصير. يعني
01:40:31.380
|
الذكاء الاصطناعي من مصلحته انه يفهمك. اه يقول اوكي خلاص لو
01:40:37.140
|
تسمح لي اوصل اوصل البياناتك بطريقة معينة وكذا هذي تعطيك
01:40:43.200
|
نقاط اضافية. بحيث تعطيك مثلا اشياء تميزك عن غيرها. او مثلا
01:40:47.400
|
انك تشتغل في اشياء كده اه الانسان لا زال يحب انها تكون
01:40:54.420
|
انسانية. حتى بعض الاشياء اللي مصنوعة يدوية انت حاسس انها.
01:40:57.480
|
هلأ. ايه لها قيمة اعلى من مصنوعة. او من انه تقدر تصنعها بالالة.
01:41:02.520
|
وبالضبط. ارخص يعني. ففي تصورات الكيف ممكن يكون اقتصاد قائم على
01:41:12.180
|
يعني اتمتة كاملة في كل وضع. اه وش اه اعراض هالنفسية ما زلو في
01:41:21.480
|
اختبارات الان زي.
01:41:24.420
|
في كذا دولة جربتها اللي هو نظام اني اعطيك اه دخل اساسي. من دون
01:41:31.260
|
حتى اي شروط. بدون ما تشتغل. بدون ما تشتغل. بدون ايش. وما حتى
01:41:34.140
|
مطلوب انك تبحث عن وظيفة. اللي كون انك بس مواطن. لك حق في الصحة
01:41:40.080
|
لك حق في التعليم لك هذا دخل اساسي. حلو. بر جربوه في فنلندا.
01:41:44.400
|
جربوه في فنلندا. اي جربوه في فنلندا جربوه في كندا وجربوه في حتى
01:41:49.140
|
الضار. كان مدينة الضار في امريكا وكذا. فالان النتائج ممتازة. هم
01:41:53.400
|
شوون تجربة تجارب هذه ليش? اولا يشوفوا اوكي هل مثلا نفع من ناحية
01:41:57.960
|
صحية ونفسية? هل ساعد اه هل رجع الشخص بحث عن وظيفة? هل فرق ما
01:42:05.640
|
فرق? هل فاد الاقتصاد? هل هل? فحد علمي النتائج الى الان ما هي ما
01:42:13.080
|
في اتفاق كامل عليها. اوكي. اوكي. اشراك في في مقالة
01:42:19.140
|
نشرها. شو اسمها? مارك اندرسون. ايوة. فكان يعني مفادها انه ان
01:42:27.480
|
خطر الذكاء الاصناعي مبالغ فيه. وانه زي زي اي تقنية تجي للبشرية.
01:42:32.820
|
والناس تبدأ تحول منها وفي الاخير يطلع عادي يعني. اه. وتقدر تاخدها
01:42:39.240
|
من بداية اي تقنية دخلت. الراديو تروزيون الى الالالالا. الى
01:42:43.320
|
البلوكتين مؤخرا الى الحين الذكاء الاصناعي. هل تشوف هذه منطقي هذه
01:42:48.300
|
المروية? طب انا اقول له الان تورينج الخطر. ما ادري هذا انا
01:42:53.520
|
اشتاين حقنا صدفي. اه. كان انا اخذها بلا سامي يعني. عرفت عليه?
01:42:57.120
|
ما هي ما هي. ده بس انه كل تقنية تجي الناس تخاف منها. بدي يطلع عنها.
01:43:01.380
|
انت ما تقل تقيس. ام تقنية هذه ما تسبب خطر وجودي زي القناة
01:43:07.920
|
بالنووية ولا زي الاسلحة البيولوجية. انا اقول هالتقنية.
01:43:13.860
|
خنن قلت لهم قارئ الحجة بالحجة. مو عرفت عليه في
01:43:18.300
|
حجة السلطة. ما نقاله ما نقاله لا. تروح لراية. زين. اقول لك
01:43:25.980
|
حاليا. اللي وصلوا لنا لدى واحدين من المجال. وزي ما قلت لك فيه
01:43:31.020
|
نظريات حتى مثبت. هذه نظرية التعامل. هذه نظرية المجرد ما
01:43:41.880
|
اعرف هدفك. اعرف هداف وسيطة لك كبيرة. زي ولا لا.
01:43:48.300
|
تقدر تتنبأ. اه. تقدر تتنبأ وتقيس وقلت لك معادلة بسيطة. اثنين
01:43:55.440
|
مختلفين بالاهداف. الاذكى بيفوز. انت يا انك تحافظ على ذكائك اعلى
01:44:01.740
|
منه. ولا تحافظ على اهدافكم وتكون متوائمة. ففي طريقة ثانية.
01:44:06.480
|
اه تكتل. اه. على اساس ما رح تخطر على باله على اساس تقدر. عرفت?
01:44:11.640
|
يعني هذي اللي اقول لك التكتل هذي اه
01:44:15.940
|
بالتصميم. انت مجرد ما تعطيه هدف. اكيد هو يعرف ان اذا طفها
01:44:21.940
|
ما رح يسوي هدفها. اه. وهو اذكى منك وتغلب عليك. اه. عرفت
01:44:25.660
|
عليه? ولو يدرك تكتشفه بيقلت لك يتمسك ان حتى يمكن يكتب عليك.
01:44:30.040
|
عرفت? يكتب وليه ما يوصل النقطة يعرف انك خلاص ما تقدر تفصله
01:44:37.300
|
انتشر فهي ما ينبالغ فيها هو بالعكس انا اشوف الناس مهونينها
01:44:43.060
|
بزيادة. والله?
01:44:45.940
|
شف اغلب الناس اللي على الاقل انا احتكيت معه في الموضوع. يقول
01:44:52.600
|
اللي في صف في القطر. ما تقع بحث وقراءة في المجال كفاية. يعني
01:44:59.320
|
تعطيه اشياء اللي مرة اي بي سي ترى اللي قلتها هذي في المجال.
01:45:03.400
|
اي بي سي النظرية هذي بيسيك البايسيك. عرفت? اه
01:45:11.000
|
قلت لك الموضوع هذا
01:45:15.940
|
نقطة توازن ناش حلو حاليا. قاعدة تمشي فانا نبني ذكاء اصطناعي غير
01:45:22.060
|
امن. ام. حنا بس ودنا نغير المعادلات بشكل بسيط بحيث تضمن كل
01:45:26.680
|
الشركات مصالحها انها تبني ذكاء اصطناعي امن. هذي. ما بيطلع لك
01:45:34.480
|
اشرار خارج النظام. هذا. حتى لسويت النظام امن. اه هذا مشكلة
01:45:43.000
|
مختلفة. ام. في مشكلة انه ذكاء اصطناعي يتمرد. في مشكلة انه
01:45:48.340
|
خاص بنيه ذكاء اصطناعي امن. كيف بنضمن انه استخدامه بشكل سريع.
01:45:52.720
|
اوكي? وهي تقريبا يمكن حلقتنا السابقة. اللي عرفت اللي في مبادئ
01:45:58.600
|
الشفافية المساواة المسئولية وكيف تضمن انه تبنيه بطريقة صحيحة
01:46:06.520
|
او تبنيها بطريقة الاخيرة. زي ما هذه الحيل المشاهدين على الحلقة السابقة. اني كيف تبني ذكاء اصطناعي امن.
01:46:13.000
|
باختصار مجموعة مبادئ نطبقها في التطوير والتبني والاستخدام. فخطرين
01:46:23.980
|
مختلفين. شكرا جزيلا. اللي عرفوا. شكرا لكم. شكرا لوهاب موسى في
01:46:30.160
|
التصوير ومحمد الحسن في الادسة الصوتية وتحرير الحلقة محمد نور
01:46:34.960
|
شمت وفي التلوين عبد النجيد العطاس وفي ادارة محتوى التواصل
01:46:39.460
|
الاجتماعي نورة اسبيعي ومنتج البرنامج
01:46:42.980
|
ايمان الحمادي وفي ادارة التحرير اسي البعبدالله. هذا فنجان احد
01:46:48.080
|
منتجات الشركة الثمانية اللي بنشر والتوزية. ننشر كل الانتاج
01:46:52.040
|
بحب من مدينة الرياض. الاسبوع المقبل. القاكو.
01:47:00.800
|
خلينا شفت لك ايش اسمه? قاك في سيدتي. اه. انت كان قريبه. كده
01:47:10.280
|
شهرين او ثانيين. اه. اه. فكان
01:47:12.960
|
السؤال هل يمدي اه. اه تحمل. تحمل. بس يعني مو يمكن انه يمدي
01:47:19.980
|
الانسان يتزوج اهلا. شعليا فعليا يعني نظريا. يمدي صح? انه يمدي
01:47:29.100
|
يحب واحدة اهلا. اهلا اهلا. ايوة اهلا. ايوة اهلا مستحيل. طيب
01:47:35.880
|
الان ياخذ يتزوج اهلا. ويحبها لانه يمدي يعني بس بالكلام يعني فتاة.
01:47:42.960
|
تفهمها وتصرف معها صح? يمدي يحب اهلا. تقريبا اهلا. اه. ما انا
01:47:50.580
|
ادري ممكن في واحد يحب اهلا عينتنا طبعا. ده لا اشتغل عينة
01:47:54.120
|
الالة تقدر تفهمك زي اه فيلم اه هر يعني. اه هم. انت بتتذكره?
01:47:59.160
|
ايه هل ممكن تكون علاقة عاطفية مع شيء غير انسان? ممكن. يعني اذا
01:48:05.700
|
تفهمك تقدر تنكت وتضحك لك. اه احس مرة سهل.
01:48:12.960
|
واذا كان الشيء هذا خنقول افتار للشخص تعرفه. خنقول مثلا اهو طيب
01:48:18.420
|
اهو. اهو يعني. فمعناته يعني تقدر اه تحب اهلا. عاطفيا. اه انا
01:48:27.000
|
شوف انه ممكن يعني. ممكن صح? ايه غير مستبعد. يعني انا ممكن
01:48:30.960
|
لحين عبد الرحمن عندك بيانات ما شاء الله بالنت صورك موجودة وصوتك
01:48:35.460
|
موجود وخنقول لحين اقدر احاكي صوتك وحاكي حقق مع التطور
01:48:39.480
|
التكاريخ الاصطناعي قدر يبني لي شخصية لعبد الرحمن.
01:48:42.960
|
افتار. زين. وخنقول هلك الحين اه بدوا يستخدمونه بعد عمره
01:48:50.700
|
طويل كفيت. زين. لا يقدر الله.
01:48:55.460
|
بيكونوا علاقة معك عرفت? ايه? بالعكس ذكرات بتتراكم. فتخيل
01:49:00.840
|
جيت مثلا واحد جاء من ده واخذ هاردسك وفرمته ولا? ايه? انا
01:49:07.920
|
ذبحت عبد الرحمن وذبحت انا ما دخلنا فيها الاخلاقيات التعامل
01:49:12.300
|
مع روبوتات.
01:49:12.960
|
مشكلة. كانت تبون. بس اه بس فعليا يعني يمديك تقع في انا
01:49:17.820
|
انك في هذه العلاقة. عاطفية معه. فيمدي اصلا شركات تصير تسوي اه
01:49:24.120
|
بنات تحبهم. او رجال يحبونهم البنات يعني هذه الات كلها. صالح?
01:49:29.700
|
الحين في شركات يقدموا ترى خدمة زي هذه اللي يحاول يبني لك افتار.
01:49:34.200
|
ندري مستقبل مرة يعني. شف. اللي قاعد ينصرف عنه. مستقبل معطوب
01:49:40.800
|
والله. شف اللي قاعد ينصرف عنه هذا الحين.
01:49:42.960
|
شي في الفلسفة يسمونها او الانسانية. اللي متى يكون هذا الشي
01:49:49.680
|
انسان وعامل بطريقة انسانية ومتى ما يكون انسان. عرفت? يعني الحين اه
01:49:55.800
|
افرض انك اكتشفت اني انا مثلا روبوت. طاح الكاس هذا من جهة راحت
01:50:01.800
|
وفب زي ايطالي شي. صدق الله. يعني هل تذبحني مثلا ولا تقول لا
01:50:07.860
|
بلين احرقوه. عرفت? ونفس الكلام من تل افتار اللي قلت لك
01:50:12.960
|
اهلا. فانت هنا تعريفك الانسان هو اللي يحدد تعاملك الاخلاقي معه.
01:50:22.800
|
عشان كده الناس قاعد يحاولون يفهمون مسألة الوعي هل الروبوت اذا
01:50:27.900
|
وصل لمرحلة. هل يعي? هل يعي? طيب شوف انا بجاوب جوال بودكاست
01:50:34.200
|
ولا برود بودكاست شان انا في شخصيتين عرفت? شوف احنا نقرر. طيب.
01:50:40.960
|
طيب.
01:50:42.960
|
اه افضل طريقة انك تستوعب الوعي. ايه? اللي هي اول شي فهم العلاقة اللي
01:50:48.540
|
عنا الطريقة اللي فهمت فيها. اللي هو الوعي المحدد. اه. يعني انت
01:50:51.480
|
الحين هل انت واعي مثلا انه في لسان جوه فمك واسنان. اه. عرفت? هل انت
01:50:58.260
|
واعي برجلك او انفاسك حاجة تطلع وتطلع. شف لحال كل ما قلت شي كل ما
01:51:05.100
|
انت قد تركيزك لا واستوعبت. اول كنت ناسي وناسي انك ناسي. عرفت? شفت
01:51:12.960
|
الشي هذا وانك انت مستوعبة هذا خلينا نقول نسميه الوعي. حلو. ففي
01:51:18.600
|
وحدة قد حتى جاها سيد ظاهر جلطة في المخ او او سرطان ناسي والله.
01:51:24.600
|
فاثر جزئية في المخ قلاها تشوف بس ما تستوعب. وسووا معها تجارب
01:51:30.720
|
مثيرة. جابوا صوتين البيت. وقالوا لها اه اي واحد يحترق واحد ينحرق
01:51:38.220
|
واحد ده. هم. حلو? وقالت بالنسبة لها هي
01:51:42.960
|
تشوف البيتين زي بعض. كل البيتين سليمة. فلما تسألها اي بيت
01:51:49.380
|
ودك تسكين فيه دائما تشير للبيت اللي ما ينحرق. اه. مع انك لو
01:51:54.240
|
تسألها تقول نفس الشي. ولو ترمي عليها كورة من الجهة اللي هي
01:51:59.040
|
تشوف فيها وما تستوعب توخل. بس ما تدري ايش وخل. هم. عرف? فهذا
01:52:05.700
|
الجزء اللي اللي خليك تستوعب انك مستوعب نعم.
01:52:12.960
|
اه هي النقطة اللي يسمونها الواعي. الى الان في بحر الفلسفة
01:52:19.140
|
وهذه يسمونها عقودهم اللي كيف وكم متى تتحول البيولوجيا الى
01:52:27.660
|
واعي. في اللي وش يفسر الشعور الداخلي هذا. وضروري سؤال مسألة
01:52:37.020
|
الواعي هذا لانك بحدد كيف تتعامل بطريقة اخلاقية. لما تلاحظ انت
01:52:41.340
|
الحين. وش اللي خليك تتعامل مع شيء بطريقة اخلاقية اكتما
01:52:46.920
|
الثاني. ترى القدر يعني قديش هو واعي. الحيوان غير النبات غير
01:52:51.840
|
الحشرات غير الانسان غير. فتحديد انسانيتك هذا مهم في تحديد
01:52:59.400
|
الاخلاق. صح. يعني هذا بعد برضو تحدي ثاني. الحين لما كيف تخلي
01:53:08.340
|
الروبوت يتعامل معك بطريقة اخلاقية.
01:53:11.340
|
كيف تبرمج على الاخلاق. زي انك لو بتقول له يلا ابغاك تعامل الانسان
01:53:18.060
|
بشكل اخلاقي. اول تحدي بتواجه اللي وش الانسان. اللي قلنا قبل
01:53:23.640
|
شوي. يعني انا انسان انت انسان. طب الجنين. نهرو انسان. في ديانات
01:53:31.080
|
حتى قبل المنع الحمل. حرام. حتى بالقتل. زيين? ايه? حتى بعد ما
01:53:38.160
|
يعني.
01:53:41.340
|
الانسانية هادي درجات يعني مثلا هل الميت دماغيا? ايه مش سوي فيه
01:53:48.240
|
الجثة? هل هو انسان? طب اذا مو بانسان هل عاملة زي الكرسي عرفت?
01:53:56.760
|
هي درجات يعني واحد بيبلك اوكي اوكي الجثة اقل من جنين اقل من
01:54:02.860
|
العاقل البالغ. برضو في العاقل البالغ المجرم. ممكن تذبحه
01:54:11.340
|
صح؟ صح؟
01:54:13.340
|
ايه تعدم اعدام صح؟
01:54:15.340
|
فانت الحين لو تقول روبوت يلا احمل بشرية
01:54:17.340
|
بيقول هذا بيموت
01:54:19.340
|
هذا لازم يموت
01:54:21.340
|
هذا لازم يموت
01:54:23.340
|
لانه في ارتباط عندنا
01:54:25.340
|
بين انسانية الشخص
01:54:27.340
|
واخلاقك انت كل ما سويت شي غير
01:54:29.340
|
اخلاقي كنك سربناك
01:54:31.340
|
شوي من انسانيتك
01:54:33.340
|
عشان كده في الحروب تقى
01:54:35.340
|
اول خطوة
01:54:37.340
|
رقوتهم شيطن خصمك
01:54:39.340
|
وتنزل منزلة الحيوان
01:54:41.340
|
فا
01:54:45.340
|
فا
01:54:47.340
|
مشكلة شائك يعني
01:54:49.340
|
كيف بس تقول للروبوت
01:54:51.340
|
يعني ابغاك تحمل انسان
01:54:53.340
|
ارى
01:54:55.340
|
حاس بيقول يا رجال تعرف ذكر وامثل
01:54:57.340
|
تعال تقافل
01:54:59.340
|
والحين ما عدسين ذكر
01:55:01.340
|
صاروا مخلطين
01:55:03.340
|
يجيك روبوت يقول identify as a human
01:55:05.340
|
والله
01:55:07.340
|
ولا العكس يجيك انسان يقول identify as a robot
01:55:09.340
|
ارى
01:55:11.340
|
نضحك الحين بس ترى يعني
01:55:13.340
|
اللي قاعد يصير الحين اشياء
01:55:15.340
|
ممكن نتكنسل بكرة
01:55:17.340
|
زي ما يقول في درجات طيف
01:55:19.340
|
زي ما يقول في درجات طيف
01:55:21.340
|
يعني في طيف بين الانسان والالة
01:55:23.340
|
واذا اندمجوا الالة والانسان
01:55:25.340
|
يعني اخلي نقول مثلا
01:55:27.340
|
هذه الشرايح اللي قاعدت تزرع في المخ
01:55:29.340
|
ايه
01:55:31.340
|
يعني اخلي نقول زادت الشرايح
01:55:33.340
|
تخيل ايه الشرايح
01:55:35.340
|
بدين اذا صار فيها ذاكس
01:55:37.340
|
اخي
01:55:39.340
|
سويناك فيك عمليات
01:55:41.340
|
لين ما صرت تقريبا ثلاثة ارباع اجهزة
01:55:43.340
|
صيبة
01:55:45.340
|
هل نازلت عبد الرحمن
01:55:47.340
|
هل الحين تستحق
01:55:49.340
|
معاملة اخلاقية مختلفة
01:55:51.340
|
لو ودلناك جزئية
01:55:53.340
|
جزئية لين ما صرت كلك روبوت
01:55:55.340
|
بس نفس تكريات
01:55:57.340
|
عبد الرحمن نفس
01:55:59.340
|
مشاعره نفس
01:56:01.340
|
هيئته نفس كل شي
01:56:03.340
|
ولو قدرت تعرف الوعي وتحطه في
01:56:05.340
|
سيرانة انا
01:56:07.340
|
اوه ترى الوعي
01:56:09.340
|
كيف عرفت اني انا واعي
01:56:11.340
|
انت مفترض حين انا واعي
01:56:13.340
|
من تصرفاتي صح
01:56:15.340
|
انت بتحكم بتصرفات فبنوصل
01:56:17.340
|
مرحلة الروبوت بيتصرف بطريقة
01:56:19.340
|
ما ريق تفرقها
01:56:21.340
|
بينها وبين الواعي
01:56:23.340
|
فعلى اي
01:56:25.340
|
اساس تقول ابراهيم واعي وهذا مبواعي
01:56:27.340
|
اذا كان
01:56:29.340
|
كل الاشياء اللي حققها ابراهيم حققها الروبوت
01:56:33.340
|
تواجه مشاكل مظلة
01:56:35.340
|
مخلقية
01:56:37.340
|
طب انا ايضا غير مقتنع
01:56:39.340
|
بخطر الذكر السناعي نهائيا
01:56:41.340
|
يقول انه لا يستنبط الحديث
01:56:43.340
|
مع ان اتهمه
01:56:45.340
|
لا يستنبط
01:56:47.340
|
انا لا يستنبط
01:56:49.340
|
غير رأيك
01:56:51.340
|
اقنعك
01:56:53.340
|
اقنعك
01:56:55.340
|
عندي سؤال
01:56:59.340
|
نحن نخاف دايما من الذكر السناعي
01:57:01.340
|
انه يتحجم علينا
01:57:03.340
|
هل نقدر نعلمه فكرة الالهية
01:57:05.340
|
ويقول له
01:57:07.340
|
انا الاله
01:57:09.340
|
يصدر الله
01:57:11.340
|
فيصير يعرف القوانين اللي كيف يتعامل فيها
01:57:13.340
|
علاقة الاله
01:57:15.340
|
بعبده
01:57:17.340
|
ما عادي يقدر يسويلك شي
01:57:19.340
|
اي انسان
01:57:21.340
|
يصدر الله
01:57:23.340
|
يعني
01:57:25.340
|
على اساس البشر ما يعصون الله الحين
01:57:27.340
|
اي بس لان عندهم الارادة
01:57:29.340
|
هل هو عنده الارادة
01:57:31.340
|
لو وضحت القوانين هذي
01:57:33.340
|
حقيقة العلاقة ما بينه
01:57:35.340
|
انت كيف تعطي الارادة هذي طيب
01:57:39.340
|
شوف الارادة بعد تراسو
01:57:41.340
|
الفلسفة ثانية نفس الكلام
01:57:43.340
|
خلي عندها احتمالية 90%
01:57:45.340
|
يعني زي ما
01:57:47.340
|
الان تورينغ دف تعريف
01:57:49.340
|
الذكاء الى اختبار
01:57:51.340
|
حلو اللي قديش انا عقدر افرق
01:57:53.340
|
بينك وبين ذكاء انسان
01:57:55.340
|
الارادة تقدر تحاول
01:57:57.340
|
تسحبها من فلسفة العلم
01:57:59.340
|
قديش اقدر اتنبأ بتصرفاتك
01:58:01.340
|
اذا انا اقدر اتنبأ بتصرفاتك
01:58:03.340
|
100% فوين الارادة
01:58:05.340
|
صح
01:58:07.340
|
فعلى اساس هذة التعريف الحين
01:58:09.340
|
اوكي
01:58:11.340
|
انت اذا عطيته
01:58:13.340
|
ارادة قد تنبأ فيها 100%
01:58:15.340
|
فاما انك انت زرعت فيه ان اعصيك
01:58:17.340
|
زيل
01:58:19.340
|
او انك يعني خلاص ما محد بيه ارادة
01:58:21.340
|
هي قادمة قاعدى
01:58:23.340
|
اه
01:58:25.340
|
بس مرة ثانية اذا انت
01:58:27.340
|
بتبرمجة
01:58:29.340
|
بحيث انك مرة تكون متنبأ فيه
01:58:31.340
|
فأكيد بيكون محصور بذكائك أنت
01:58:33.960
|
ما يقدر تعدى
01:58:34.720
|
غير النظام الحين اللي قاعد يتعلم
01:58:36.960
|
يقدر
01:58:38.560
|
تخطى ذكاء
01:58:40.240
|
بس يعني إذا ما خليت 90%
01:58:43.840
|
90% وش وإرادة؟
01:58:45.640
|
أعتقد أنه
01:58:48.920
|
زي ما قلت لك مجرد ما يصير فيه
01:58:50.820
|
جزء اختلاف
01:58:53.600
|
هو عنده تفوق بسيط
01:58:55.720
|
بيتفوق في العالم هذا البعيد
01:59:00.440
|
سمعتي والله معادلة
01:59:02.480
|
لماذا أنتم مقتنعين
01:59:04.140
|
أذكى منك وهجافك مختلفة عني
01:59:07.720
|
عرفت؟
01:59:10.080
|
زي مثل الشطرنج
01:59:10.960
|
أرجع له
01:59:12.180
|
أقدر أتنبأ أني بفوز عليك
01:59:14.200
|
بس الإنسان معقد هذه الفكرة
01:59:15.560
|
يعني ما هو
01:59:16.080
|
يعني وله محدد
01:59:18.440
|
الذكاء
01:59:19.700
|
الإنسان
01:59:21.440
|
فأنا ممكن أفوز عليك الشطرنج
01:59:23.340
|
بس إني أقدر برضه أميز
01:59:24.640
|
يعني أميز أشياء
01:59:27.940
|
باقي ما تعلمت عليها
01:59:29.340
|
يعني
01:59:30.040
|
آه
01:59:30.420
|
ليه بس هذاك شوي كلام
01:59:33.020
|
في كل مكان يعني
01:59:33.980
|
آهاطفي
01:59:35.020
|
يعني الإنسان مميز
01:59:37.320
|
ليش مميز
01:59:39.200
|
من عمر الدنيا وحنا نميز نفسنا
01:59:42.040
|
أول كنا الأرض مركز الكون
01:59:44.120
|
بعدين قلنا لا مجموعة شمسية
01:59:46.160
|
هي مركز المجرة
01:59:47.100
|
قلنا مجرة مركز الكون
01:59:48.460
|
حتى لا ميزنا كصنف
01:59:52.240
|
طلعنا فر في شجرة الحياة
01:59:54.320
|
رفت عليه
01:59:55.200
|
ولا أنا
01:59:56.840
|
الآلة مستحيلة تكون أذكى مني
01:59:59.580
|
بكذا
02:00:00.420
|
مستحيل تحفظ
02:00:01.360
|
مستحيل مستحيل
02:00:02.240
|
وش الي ميزك
02:00:02.920
|
أنت كمخ إنسان حتى بطيء
02:00:05.120
|
بطيء يعني من سرعة الحسابات بالحاسب
02:00:11.020
|
ألف ضاعف الظاهر يعني
02:00:14.840
|
وردي أقوم متوقع عليك في كده مجال يعني
02:00:18.780
|
كل ما لديك
02:00:20.600
|
وتنسى
02:00:21.400
|
وتنام يعني هو ما ينام
02:00:24.820
|
ينسى ولا ما
02:00:25.420
|
كيف فيك
02:00:26.000
|
سرعة المعرفة اللي يقدر يحصل عليها
02:00:28.820
|
بس مو هي يعني
02:00:30.260
|
يعني
02:00:30.420
|
هو هو ما أظنن اللي يقول إنه ما رح يتفوق على الذكاء البشري
02:00:34.060
|
يقصد إنه
02:00:34.900
|
يعني هو يسلم بإنه هو متفوق علينا في في مجالات كثيرة
02:00:39.380
|
مهم طوق الحفظ
02:00:40.480
|
يتفوق في إنه يقدر يعني يستنبط أنمار معينة إذا عنده بيانات مرة ضخمة
02:00:45.360
|
بس
02:00:46.440
|
شرائك باللي يقول إنه كل الذكاء الصناعي اللي حنا وصلينه الآن
02:00:51.200
|
هو بسبب إنه يتعلم عن طريق الاستقرار بس
02:00:54.740
|
وإنك تقدمت له بيانات مرة كثير ضخمة
02:00:58.640
|
مية بالمية قدرة على تحقيقها
02:01:00.420
|
على التخزين أفضل مني
02:01:01.780
|
مية بالمية إنه قدرة على استحضارها أفضل مني
02:01:04.180
|
فهو بالتالي قادر إنه يطلع إنمار معينة
02:01:07.820
|
بس هو ما يستطيع إنه يتعلم إلا بالاستقرار بس ما يقدر
02:01:12.300
|
يقيس ما يقدر يقيس الأشياء كده هذا يعني
02:01:15.460
|
القياس الاستنباط
02:01:17.440
|
وكيف يستنبط الشيء خلاف النص الضائع
02:01:22.000
|
فأنت عليه
02:01:22.900
|
هو هذا مصدر معرف حقك
02:01:26.340
|
الوحيد
02:01:27.020
|
أوكي بس
02:01:28.900
|
ليش ما يقدر يستنبط
02:01:29.700
|
أنت يا رجل قد تستنبط
02:01:30.260
|
مع أنك نفس الكلام أنت عندك حواس وتقرا وتشوف وتسمع
02:01:34.820
|
ومن المدخلات هذه أنت عندك برضو مخ لوجيك يحكم
02:01:38.780
|
ويستنتج ويستنبط
02:01:43.100
|
يعني ما في شيء يمنع
02:01:44.220
|
إيه بس
02:01:46.260
|
يعني بعطيك
02:01:47.020
|
هذا الشيء اللي قلت لشاب قبل ما نصدق نتناقش معه مع نفس السبب
02:01:50.500
|
كنت أقول لهم وش اللي يخلي
02:01:52.660
|
وش اللي بيخلي الذكاء الاصطناعي يفكر في يوم من الأيام
02:01:55.700
|
يصحى ياخذ بني
02:01:58.820
|
من
02:01:59.540
|
بسجار
02:02:00.300
|
بسجار
02:02:01.220
|
ياخذ أو يحمس
02:02:02.500
|
أو يحط في ماء
02:02:03.740
|
وأنه يستنبط أنه هذه قهوة يا رجل خذ أشربها
02:02:06.540
|
يا وش اللي بيحفز لي هذا
02:02:08.300
|
هذا التصرف
02:02:09.420
|
فهذا اللي يقصد أنه مهما وصل هو بيتفوق علي في كثير من الأشياء
02:02:13.340
|
بس 100% أنه ما عنده أنه فيه أشياء بتغيب عنه
02:02:16.580
|
عادي نأضطى عادي نأنسى
02:02:18.100
|
أنت ليش مفترض أنه بيسوي شيء
02:02:19.220
|
كنت أقول مثلاً
02:02:21.100
|
وش بيخلي الطيارة تسوي عشة
02:02:23.900
|
وتقعد فيها
02:02:25.340
|
مع الطيارة تصميم مختلف مرة عن الأسفور
02:02:29.100
|
في في أشياء ما يقدر يسويها لأنه تصميم مختلف عنه
02:02:31.980
|
ومو تصميم مختلف عنه
02:02:33.500
|
ففكرة التفوق علي بكل الأشياء
02:02:37.060
|
هذه اللي أظن أنا عندي مشكلة فيها بس
02:02:39.340
|
نعم
02:02:40.260
|
يعني أكيد بيتفوق علي بكثير من الأشياء
02:02:42.020
|
أنا ما عندي مشكلة فيها
02:02:43.100
|
يصنع أبكى مني
02:02:44.780
|
يحفظها أحسن مني
02:02:46.020
|
يدي العمليات أحسن مني
02:02:47.220
|
يكتب أفضل مني
02:02:48.660
|
بس وارد أنه في جوانب بكرة أنا بعرفها أنه ما يقدر يضاهيني فيها
02:02:54.020
|
هذا بأقصد أنه التفوق الكامل
02:02:56.500
|
وأنا أقول لك هنا على قوتم البيانة تعلمنا الدعاء
02:03:01.100
|
حنا الحين في موضوع على قوتم اغناستيك
02:03:02.740
|
حنا ما ندري هل بيقدر ولا ما يقدر
02:03:05.940
|
أوكي
02:03:06.580
|
بس أنا أقول لك نظرياً ما في شي يمنع
02:03:09.700
|
ونقاعد نشوف الرتم كل ما لا يقترب
02:03:13.060
|
زين
02:03:14.460
|
أنت تقول مستحيل
02:03:16.340
|
أتوا ببرهانكم على قوتم
02:03:17.620
|
زين ما أقدر أثبت لك الحين
02:03:20.140
|
أنك ما تقدر تنزل تحت الصفر كالبني
02:03:22.940
|
ما تقدر
02:03:23.980
|
ما تقدر تمشي أسرع بسرعة الضوء
02:03:25.940
|
نظرياً فلما أشوفك قاعد تبني مركبة
02:03:29.420
|
ولا هذه الآلة الحركية الأبدية دي
02:03:32.940
|
وأقول لك الطاقة لا تنفوت ولا تتخلق من عدم
02:03:36.100
|
وش كنت تسوي
02:03:36.940
|
لا تفكر تبني آلة تولد لك طاقة من عدم
02:03:39.980
|
مثل تومنتين وقاضين
02:03:42.860
|
هذا مبني على حدس وشعور
02:03:47.260
|
وميول لأنك إنسان وبشر
02:03:50.460
|
يتيقلك أنك أنت زي إيلون ماسك
02:03:53.260
|
اللي
02:03:53.980
|
هات لي برميز
02:03:55.980
|
عندك ثقة زايدة بنفسك
02:03:58.980
|
وإنحياز ذاتي
02:04:03.460
|
أنا والله العظيم لو واحد جاو أثبت لي
02:04:06.460
|
يا إبراهيم أثبتني أنه
02:04:08.460
|
زي في واحد هذا راجل بنروز واحد رياض معروف
02:04:12.420
|
زين قال إنه الوعي في المخ يستخدم الـ Quantum Mechanics
02:04:18.420
|
عنده عليها ملاحظات وكل شي بس إنه عنده فرضية
02:04:23.980
|
فإنك لو جيت أثبت لي إنه الوعي اللي في المخ
02:04:26.980
|
قاعد يصير على الـ Quantum Level
02:04:30.420
|
على مستوى الـ Quantum
02:04:31.500
|
وقعد يجيت قلت لي
02:04:32.980
|
الآلة هذي لا تستخدم الـ Quantum
02:04:34.980
|
على الأقل نيك حجة وهذي في منطقة الحين هذا
02:04:37.980
|
هذا قدر يسوي الشيء عشان يسويه عشان مبني على الـ Quantum
02:04:42.980
|
وهذا ما في Quantum
02:04:43.900
|
فمستحيل وصل له
02:04:47.980
|
هذا حجة argument
02:04:48.980
|
بس مش آحس إنه ما يقدر
02:04:51.980
|
هذا كلام
02:04:53.980
|
أظن أننا كلنا في نفس المنطقة
02:04:57.980
|
أنا اللي أحتاج إثباته أنت بعد إثباته
02:05:00.980
|
لا لا هو يقدر
02:05:01.980
|
ما يقدر يثبت أنه يقدر الذكاء الصناعي يصحب يوم يسوي قهوة من رأسه
02:05:05.980
|
ولا يختلع طبخة من رأسه
02:05:06.980
|
بس ليش ما يسرع يسرع إذا انت رأيت طيب
02:05:09.980
|
بس اللي يقدر الآن يقدر يطبخ طبخة من رأسه
02:05:11.980
|
الآن اليوم اليوم
02:05:12.980
|
بس اللي بيخليه يستيقظ
02:05:14.980
|
صح؟
02:05:15.980
|
ليه يقدر يطلع وصفات إيش؟
02:05:16.980
|
من رأسه يعني
02:05:17.980
|
إيه بس
02:05:18.980
|
ليش؟
02:05:19.980
|
وصفات سابقة
02:05:22.980
|
لا لا من وصفات غير سابقة لا لا يسوي وصفة لم تخلق من قبل
02:05:27.980
|
سمع
02:05:28.980
|
لأول مرة يعني
02:05:29.980
|
فهو شي اللي بيخليه يطلع يسوي القهوة لأول مرة؟
02:05:32.980
|
ده خلي بنظرها شوي
02:05:34.980
|
كيف تقدر تستنتج أهداف الذكاء الصناعي في على الأقل تركتين
02:05:40.980
|
إما من اللي صممه أو من وين ورثه
02:05:45.980
|
واحد
02:05:47.980
|
اللي
02:05:48.980
|
يعني
02:05:49.980
|
لو أنا مثلاً صممته كأصطناعي وصممته على أساس أنه يقوم يسوي قهوة فأكدوش ما بري يسوي قهوة
02:05:58.980
|
أول مثال الثاني أني
02:05:59.980
|
طبعاً هو يقصد القهوة أتوقع أن البشرية ما كانت تعرف شي اسم القهوة
02:06:04.980
|
فهو راع شاف شاف كذا شجرة شاف بنا
02:06:09.980
|
شاف شجرة ثان
02:06:11.980
|
بدين كذا بدين جرب بعدين شاف بدين طلع طعم فابتكر يعني زي كده فجلس
02:06:18.980
|
طبعاً كانوا يأكلونها يعني دفتر أو محتربي يقول أنهم أخذوا البن من الحالة وكلام
02:06:23.980
|
فعندهم مو مو حلو قايا أخذنا نحطها بالماء
02:06:28.980
|
فهذه فكرة القهوة
02:06:31.980
|
نحطها مع سكر فهذه السلسلة من الأشياء اللي قاعدة تطلع بشكل غير غير معقول يعني
02:06:40.980
|
بدون سابق تجربة يعني من العدم تقريباً
02:06:42.980
|
لما كانوا البشر تتسلسل
02:06:44.980
|
إنه مهما ظنني يعني أنا أنا معاني دكتور
02:06:47.980
|
الآن الموضوع فلسفي وجدلي وفيه اختلاف ترى فيه ناس ماخذين جائزة نوبل ويشوف أنه مو خطر
02:06:55.980
|
أي شي تظن أنها ابتكرة من العدم فهو
02:07:01.980
|
اللي أنا أقوله أنه مو من العدم هو لأنه عنده حصيلة تجارب غابت عنك لأنك انتنسى بعد
02:07:07.980
|
هو ما ينسى حاضر كل شي بنفس الحضور للشي اللي انتسب قبل دقيقة أو قبل 200 سنة
02:07:13.980
|
أنت كاتت أنسن الآلة
02:07:15.980
|
لا تفكر الآلة
02:07:17.980
|
لأنها بتصير تشبه لك
02:07:19.980
|
لو تخيلنا لو قلتهم دائرة العقول البشرية
02:07:25.980
|
مقابل دائرة كل العقول بما فيها الآلة
02:07:29.980
|
قد تكون نقطة في دائرة كبيرة
02:07:33.980
|
ممكن فجأة نقطة هنا في آلة أهدافها
02:07:38.980
|
أو اللي أنت ليش نحن بحب نقفهم أدوش لأنها تكيفك
02:07:41.980
|
من نهاية صح ولا لا
02:07:43.980
|
يمكن للكيف الروبوت هذا شي ثاني
02:07:45.980
|
بابك تشوف شي ثاني مادة ثانية
02:07:47.980
|
اللي تزيد مكافأته هذه
02:07:50.980
|
قد لا تعلمها
02:07:52.980
|
زي ما أنت ما كدت تدري على القهوة
02:07:54.980
|
قلت أول شي من استكشاف
02:07:57.980
|
ماكشفت أنه هذا شي والله طيب
02:08:01.980
|
خلنا نبحث في زيارة
02:08:03.980
|
هل تتوقع إنسان خارق بيكون أخطر من الآلة الخارقة؟
02:08:09.980
|
الإنسان الخارق
02:08:11.980
|
الإنسان الخارق اللي يكون مدموج مع الدعاء الصناعي
02:08:15.980
|
ها ها ها ها
02:08:16.980
|
أنا هذا، والله صراحة أميلة، صراحة أكثر من، أنا ودي صراحة أنه نحافظ على هيمنتنا، والله، شوف زي ما قلت لك، يا أنك تكون أذكى مننا، يا أنك يكون أذكى منك، بس الهداف، مشكلة معاملة الهداف إلى الآن معقدة، أكيد نكون في الـ safe side إذا أنت لا إله إلا الله متفوق عليه
02:08:46.980
|
ما عليك مشكلة إذا كنت أذكى منها، أو إذا كان أذكى منك بس في صدفك
02:08:52.100
|
أشعر إذا اندمجت معها، بصير البرنامج بالأكثر، بصير، عندك مخاطر أكثر من اندمجت معها، وصبت إنسان خالق، بصير مخاطر أكثر من الآلة، لأنك بجزء منها صمت، صمتها
02:09:05.380
|
إيه، فالآلة ما هي قد تقضي عليك، لأنها بتقضي علي نفسها، هذا على الأقل نقطة حلوة
02:09:10.660
|
بتقضي عليك بس بقتين
02:09:12.340
|
لا
02:09:13.060
|
بس ما عندها دافع أنها تقضي علي نفسها
02:09:15.140
|
إيه، بس أنت ما هي،
02:09:16.940
|
أنت جزء آخر، أنت آل آخر
02:09:19.100
|
إيه، فأنا أقول سنصممها بحيث أنه يكون، ما في فرق
02:09:21.900
|
إيه
02:09:22.780
|
وترك أنت الحين مندمج مع الآلة، شوف أني كنت لابسين أبل واتش، وكنا نتكلم عن استخدام التقنية
02:09:28.300
|
ودائماً نضرب مثال، أقول تخيل أنت مثلاً جيت وقصت الآيكيو حقك، وطلع مثلاً 120، حلو؟
02:09:37.660
|
وجيت أخذت منك، نقصت من الآيكيو حقك 10 درجات، بيضع فداعك في حياتك اليومية طبعاً، صح ولا لا؟
02:09:46.620
|
صح
02:09:46.860
|
صح
02:09:46.900
|
صح
02:09:46.940
|
noch
02:09:47.380
|
خليني برجع العشر نقاط بسحب جهالك وأجهزتك، بيضع فداعك
02:09:51.900
|
آه
02:09:52.940
|
فإنت الأدوات التقنية ه^^تي تتخيل؟ أول كمبيوتر كان لكن كبر الغرفة، صار كبر المكتب، صار كبر الجهاز، صار في بكرا، هذا إيرون موسك بدأ دخول جوال المو..
02:10:04.580
|
فأحنا قديماً مندمجين مع الآلة، بس أجهزة خارجية ما بعد صارت داخلية، وقادة ترى تزيد من الذكاء كنت ما تدري
02:10:12.860
|
يعني ترى الذكاء ترى مو بثابت، حتى الناس اللي تصنع أيكا وكذا
02:10:16.900
|
الآيكيو حق 80 اليوم يعتبر ذكي قبل 100 سنة
02:10:24.900
|
لأن معدل الآيكيو يزيد مع التعليم، يزيد مع الاهتمام بالصحة، يزيد مع استخدام التقنية
02:10:34.900
|
بكرة اللي حنا نعتبره ذكي الحين بيصير صعوبات تعلم، صدق والله، والله زي ما الحين اللي صعوبات تعلم ينزل تبترا كان طبيعي قبل
02:10:47.900
|
هل كان في نقطة وديك نتكلم فيها ما نتكلم فيها؟
02:10:52.900
|
والله كان في نقطة، اي فيها الهقلقيات في ثلاثة وجوان، كنا نناقشنا في 2 منها
02:11:01.900
|
اللي واحدة كيف
02:11:04.900
|
نستخدم الذكاء الاصطناعي بطريقة اخلاقية
02:11:07.900
|
في كيف حنا نعامل الذكاء الاصطناعي بطريقة اخلاقية موضوع الأنسنة والوعي، هنا كلها مرتبطة بالوعي
02:11:17.900
|
الموضوع الثاني كيف الذكاء الاصطناعي يعامل البشر بأخلاقية، عرفت عليه؟
02:11:23.900
|
يعني كيف تبرمج الأخلاق في الآلة
02:11:27.900
|
فهذه ترجى للا إله لله
02:11:33.900
|
اللي ممكن نناقشنا جزء منها في مبادئ جون سويد راسل
02:11:41.900
|
اللي قال واحدة منها انه خلاص ما تقول له ايش الأخلاق، خلاص يتعلم الأخلاق من بيئته
02:11:49.900
|
يحاول تعلمه من الإنسان
02:11:51.900
|
فكده طيب الروبوت اللي مثلا في السعودية أخلاقه غير الأخلاق اللي عرفت
02:11:58.900
|
هي مثلا تطيل قهوة باليسار يعطيك النظرة اللي ربطت لك شهرا
02:12:03.900
|
الروبوت اللي في الأبانتكة مثلا مرة يعني محتروا وقته وكذا
02:12:09.900
|
والمشكلة في هذه يعني أوكي قد تقول حل
02:12:15.900
|
بس لو انك قدرت تبني شي هذا قبل مئة سنة أو مئتين سنة كان الروبوت يتعلم الاستعباد أوكي
02:12:22.900
|
عادي، عرفت؟
02:12:26.900
|
وبرضو كان ممكن يتعلم منه مثلا الناس من العراق معينة أقل إنسانية
02:12:33.900
|
وحتى الأنثى كانت تعتبر أقل إنسانية
02:12:36.900
|
فهذه مشكلة
02:12:38.900
|
كيف أنك الحين تقول للروبوت وش الأخلاق؟
02:12:42.900
|
تخيل الحين أمريكا هي اللي تصنعها فهي اللي تحدد الأخلاق
02:12:46.900
|
بالضبط
02:12:47.900
|
بالضبط يعني حين حتى شات جي بي تي قال عنها
02:12:53.900
|
شوية سهري كذا ورأت لنا تلبينا ناس في سلكون فالي
02:12:57.900
|
فكيف تضمن أنه يتصرف بـ
02:13:03.900
|
بطريقة أخلاقية
02:13:06.900
|
يعني عشان أوريك حجم مشكلة بناء ذكاء أصطناعي آمن
02:13:10.900
|
عشان تحلها لازم تحل معضلة الأخلاق اللي لها ألاف سنين
02:13:14.900
|
هذا كعراقوة مشاركة
02:13:16.900
|
هذا مثلا فرسفية بحتة يعني
02:13:17.900
|
بالضبط يعني كان يقولك أوكي بناء ذكاء أصطناعي آمن أوكي أول خطوة يلا خنحل الأخلاق يا شباب
02:13:22.900
|
عرفت؟ اللي من حلت لها ألاف سنين
02:13:24.900
|
انت فهمت علي؟ فهذا بقى مشكلة ثانية كيف أنك يعني تبرمج ذكاء أصطناعي يكون يعني ولا في حل
02:13:33.900
|
يعني يرضي الجميع في النهاية
02:13:36.900
|
بيتحدي والله
02:13:38.900
|
ذكاء أصطناعي مشكلة
02:13:40.900
|
أنت بجد تتوقع أن جوجل بس عندها شيء أفضل من opening eye بس من قادرة تطلقه أم هي ما تعرفها صراحة؟
02:13:50.900
|
لا أنا أعتقد أن هذا أفضل شيء طلعه
02:13:52.900
|
هذا أفضل شيء؟
02:13:53.900
|
هم سيئين لها الدرجة
02:13:55.900
|
في وصفة سحرية كتبها opening eye مدرش صراحة
02:13:59.900
|
في شيء يسمى شيء اللي قالوا معلن أنه نجمني هو اسمه أم لا؟
02:14:03.900
|
جوجل
02:14:05.900
|
قالوا شيء جالسين يشتغل عليه بيكون هو النقل النوعية
02:14:09.900
|
ما رسمه تجمني
02:14:11.900
|
أتمنى ما يمنعونا عالسوريا نقل نشربة والله
02:14:17.900
|
عشان كذا قد ضروري ندخل في التقنية دي وما نقعد معتمدين على
02:14:24.900
|
هو مش كذا استوفر البيانات برضه في السعودية
02:14:27.900
|
حتى عربي يعني
02:14:29.900
|
ما في بيانات كيف تدرب عليها الآلات
02:14:32.900
|
والله
02:14:33.900
|
يبيلك ترق منها
02:14:37.900
|
يعني يكون موجودة كثيرة في الكتب وهل هي بصيغة تقدر
02:14:41.900
|
أبدا شيء ثاني بعد يرفع الضغط
02:14:44.900
|
يعني جوجل وشركات هذي قاعدين يستغلون نحن بكل العالم
02:14:49.900
|
أن ندرب نماذجهم ترى
02:14:51.900
|
أنا وياك دربنا جوجل كل يوم ندربها
02:14:53.900
|
لما تدخل يقولك اختر وش السيارة ووش الهذا عرفت؟
02:14:58.900
|
وبكرة ما يخلصون يقولك أخلاقيات وش أعطيك إياها مدرو شوية
02:15:02.900
|
دربة لستين يوم مع كل تسجيل دخول
02:15:05.900
|
بالضبط قبل كان يوريك كلمتين يقولك اكتبهم
02:15:12.900
|
أو حتى الأحرف الكل إلا إلا
02:15:14.900
|
ايه كلمتين يقولك اكتبهم
02:15:16.900
|
هو ترى فعلياً في كلمة يعرفها الثانية لا
02:15:19.900
|
الثانية هذي أنت اللي تتعلمها عشان يروح يدرب النموذج حقه
02:15:24.900
|
عشان يرق من كل الكتب اللي بعد ما خلص رقمنها وقضا درب نماذجها
02:15:30.900
|
بعد ما تيجي يقولي عطني يبدو
02:15:32.900
|
أنا شفت شو اسمها في التويتر قبل كم يوم جارت العادة حطت مشروع اسمه رقمنة وشو زي كذا
02:15:42.900
|
بس لطالما يتفعلك فلوس عشان تسويها
02:15:45.900
|
فهم يحطون فهم أرشفوا المستندات بس يبغونك تأكدها في تلقى مكتوب واحد ثمانية اثنين معها
02:15:54.900
|
ويبغاك تكتبها
02:15:56.900
|
بيعطونك فلوس على كل مرة تخلصها طبعاً حاجة يعني
02:15:59.900
|
لو يستخدمون يخلونها في تسجيل الدخول للمنصات المختلفة
02:16:00.900
|
يبفرون عليهم ويبفرون علينا
02:16:05.900
|
يخلون كل مستندات حقتهم
02:16:07.900
|
حطها خلها ما يدخل
02:16:09.900
|
بالضبط أنا هترقل ناديت فيه من زمان يعني
02:16:13.900
|
يعني وأنا بكون أسعد واحد لما أشوف شيء على الأقل من أمن أبدخل بسوي تسجيل الدخول بإذا ما أدرب جوجل
02:16:19.900
|
زي ولا لا أدرب نماذج محلي
02:16:22.900
|
زي ولا لا أنا في الخير كي أدرب أحد
02:16:25.900
|
أنا أدرب على الأقل نماذج محلي
02:16:27.900
|
وفيه الدارة فيه المكتبة الوطنية
02:16:30.900
|
وفيه الناس يحتاجون التدريب على المستندات العربية القديمة
02:16:35.900
|
فحنا بينا الرقمن جزء كبير من البيانات الموجودة عندنا على الأقل بالعربي
02:16:42.900
|
ممكن نثوق عليهم في على الأقل أنها إذا ما تصير أقل من نصف المئة
02:16:47.900
|
تصير يعني
02:16:54.900
|
على الأقل جزئية العربية دي أكثر بكثير
02:16:58.900
|
فتصير أنت ذاكي في هذا المجال
02:17:00.900
|
خصوصاً حتى ما تدري ممكن تصير في مجال حتى هم خاص فيهم إذا انت علمت على العربي
02:17:04.900
|
ما عندهم تدريب على البيانات هذه
02:17:07.900
|
صح؟
02:17:08.900
|
بس فيه مشكلة في العربي إنه نوعية المعرفة بعد هنا وهنا يعني أغلب العلوم مثلاً الطبيعية
02:17:14.900
|
حتى العربي شروا بإنجليز
02:17:16.900
|
بس قلت إذا خدت كل التراث اللي ما عندهم تراث العربي
02:17:20.900
|
فما دري إذا بيفرق في معرفة الآلة
02:17:23.900
|
أتوقع بي
02:17:24.900
|
إذا أضفت التراث كله لأنه أصلاً حتى مو موجود على الإنترنت
02:17:27.900
|
صريفتي
02:17:28.900
|
أوه
02:17:29.900
|
إيه صريفتي؟
02:17:30.900
|
بظل يفت الحين صراحة
02:17:31.900
|
إيه هو يفت الحين صدقي
02:17:34.900
|
بأي معنى تقصد يفت
02:17:36.900
|
لا لا فيه تطبيق مثلاً ظهر آيفون إسلام وشي
02:17:40.900
|
فتوى
02:17:42.900
|
عجيب
02:17:43.900
|
بدل الآلة
02:17:44.900
|
إنت شعب الحين الحملات اللي خلق حريص والناس اللي يكلمون وأجانب وأنا بنكراتش هيو
02:17:53.900
|
إيه فيجيك واحد جنسية مختلفة حتى ما يعرف عربية
02:17:57.900
|
يأتمت رسالة
02:17:59.900
|
بحيث أنه حتى لما توصلك رسالة توصلك بيعني حتى يمكن يقولك أبو عمر
02:18:06.900
|
آه
02:18:07.900
|
آه
02:18:08.900
|
آه
02:18:10.900
|
وسهل أنه يقدر يعرف عنك كل شي يعني
02:18:13.900
|
إيه
02:18:14.900
|
يعني لو تبحث عن أي أحد حتى لو كان مو موجود على الإنترنت مرة
02:18:19.900
|
تقدر تعرف عنه كثير ترى من الإنترنت
02:18:23.900
|
إيه يقدر خالق فريق تويتر
02:18:25.900
|
إيه يعني لو لا في ناس تعتقد أن حضورهم على الإنترنت قليل
02:18:28.900
|
مثلا يجي يقول أنا أنا موجود في كل مكان مثلا
02:18:31.900
|
أوكي
02:18:32.900
|
بس في واحد تلقى عنده بس شوية ما يدخل إنترنت واحد
02:18:35.900
|
يعني فهو يتوقع ما عنده فوتبرنت عالي في الإنترنت
02:18:39.900
|
آه
02:18:40.900
|
لو تبحث ولا تلقى أنك تعرف عنه أكثر مما يتوقع
02:18:44.900
|
أنا قد سويت تجربة قبل
02:18:48.900
|
آه
02:18:50.900
|
في ناس في تويتر مفاعلين
02:18:52.900
|
آه
02:18:53.900
|
أردت
02:18:54.900
|
تقدر تعرف هو وشو بس من هو يتابع مين ومما يتابع
02:18:57.900
|
بس مجرد متابعات حتى لو ما تكتب ولا ذا
02:18:59.900
|
أنت
02:19:01.900
|
مين يتابع مين يتابعك
02:19:03.900
|
أقدر أستنت الشي عنك
02:19:05.900
|
صح
02:19:06.900
|
عرفت عليه
02:19:07.900
|
ومنك ساكت بس تراقب بصمت بس مجرد لك حساب
02:19:10.900
|
وحدد كم واحد يتابع وكم واحد عرفك وتابعك
02:19:15.900
|
هذي كافي
02:19:16.900
|
أقول لك يعني البصمة هذي الفوتبرنت حققتك الديجيتال
02:19:23.900
|
يقدر لك أصطناعي يستمد منها أشياء كثيرة يعني
02:19:26.900
|
خير