اصولتفکر صحیحمحصول

رویکرد ایلان ماسک برای حل مسئله

این متن برگرفته از یکی از قسمت‌های پادکست Lex Fridman است، جایی که لکس فریدمن با ایلان ماسک به گفتگو می‌پردازد. در این بخش از مصاحبه، ایلان ماسک در مورد روش‌های خود برای ساده‌سازی فرایندها و چالش‌های مربوط به هوش مصنوعی صحبت می‌کند. این گفتگو به موضوعات مهمی مثل اهمیت جستجوی حقیقت در توسعه‌ی هوش مصنوعی و جلوگیری از تعصب‌های ایدئولوژیک در این حوزه می‌پردازد. پادکست Lex Fridman به دلیل مصاحبه‌های عمیق و تحلیل‌گرانه‌اش با افراد برجسته‌ی دنیای علم و فناوری شناخته شده است.

لکس: چیزی که من در ممفیس و اون ابرکامپیوتر دیدم، یک تلاش شدید برای ساده‌سازی فرآیند بود، درک فرآیند، بهبود مداوم و تکرار مداوم اون.

ایلان: خب، گفتنش آسونه که چیزی رو ساده‌سازی کنی، ولی انجامش خیلی سخته. من یک الگوریتم خیلی ساده دارم که مثل یک مانترا همیشه در ذهنم مرور می‌کنم. اون الگوریتم اینه که اول از همه الزامات رو به چالش بکشی و الزامات رو کمتر احمقانه کنی.

الزامات همیشه تا یه حدی احمقانه‌ان.

پس اگه می‌خوای شروع کنی، باید تعداد الزامات رو کم کنی و فرقی نداره که چه کسی این الزامات رو بهت داده، به هر حال یه مقداری احمقانه هستن.

باید از اینجا شروع کنی چون اگه نکنی، ممکنه جواب عالی‌ای برای یک سوال اشتباه پیدا کنی.

پس باید تلاش کنی سوال رو تا جایی که می‌تونی کمترین اشتباه ممکن رو داشته باشه.

این همون معنی “به چالش کشیدن الزامات” هست.

بعد از اون، مرحله دوم اینه که سعی کنی هر مرحله‌ای از فرآیند رو حذف کنی.

این موضوع ممکنه خیلی بدیهی به نظر بیاد، ولی اغلب مردم فراموش می‌کنن که تلاش کنن اون رو کاملاً حذف کنن.

و اگه مجبور نشی حداقل ۱۰ درصد از چیزی که حذف کردی رو دوباره برگردونی، یعنی هنوز به اندازه کافی حذف نکردی.

و به‌طور عجیب، اغلب مردم احساس موفقیت می‌کنن وقتی مجبور نشدن چیزی رو دوباره اضافه کنن.

ولی در واقع موفق نشدن چون خیلی محافظه‌کار بودن و چیزهایی رو باقی گذاشتن که نباید می‌موندن.

و تازه مرحله سوم اینه که سعی کنی اون رو بهینه‌سازی یا ساده‌تر کنی.

باز هم، شاید این حرفا خیلی بدیهی به نظر برسه وقتی می‌گمشون، ولی تعداد دفعاتی که من این اشتباه‌ها رو کردم بیشتر از اون چیزیه که دلم بخواد به یاد بیارم.

برای همین این مانترا رو دارم.

در واقع، می‌تونم بگم که رایج‌ترین اشتباه مهندسای باهوش اینه که چیزی رو بهینه می‌کنن که نباید اصلاً وجود داشته باشه.

لکس: درسته.

پس همونطور که گفتی، از الگوریتم استفاده می‌کنی و وقتی به یه مسئله می‌رسی یا به اون ابرکامپیوتر نگاه می‌کنی، می‌پرسی “می‌شه این رو حذف کرد؟”

ایلان: آره، اول سعی کن حذفش کنی.

لکس: آره، ولی این کار راحتی نیست.

ایلان: نه، و در واقع چیزی که معمولاً مردم رو نگران می‌کنه اینه که باید بعضی از چیزهایی که حذف کردی رو دوباره برگردونی.

ولی چیزی که باعث میشه سیستم لمبیک ما اشتباه کنه اینه که ما تمایل داریم با یه حس ناراحتی شدید اون زمانی رو به یاد بیاریم که یه چیزی رو حذف کردیم که بعداً بهش نیاز داشتیم.

و مردم اون یه بار رو به یاد میارن، اون زمانی که سه سال پیش یادشون رفت یه چیزی رو بذارن و باعث دردسر شد.

و بعد از اون بیش از حد محتاط می‌شن و چیزهای زیادی رو اضافه می‌کنن و مسائل رو بیش از حد پیچیده می‌کنن.

پس در واقع باید بگی، “نه، ما عمداً قراره بیشتر از چیزی که باید رو حذف کنیم.”

بنابراین حداقل یکی از هر ۱۰ چیزی که حذف کردیم رو دوباره برمی‌گردونیم.

لکس: من دیدم که تو پیشنهاد دادی چیزی رو حذف کنن و می‌شه درد رو حس کرد.

ایلان: اوه، بله، کاملاً.

لکس: همه یه کمی از اون درد رو حس می‌کنن.

ایلان: کاملاً، و من بهشون از قبل می‌گم، آره، بعضی از چیزهایی که حذف می‌کنیم رو دوباره برمی‌گردونیم.

و این موضوع یه کم آدم‌ها رو نگران می‌کنه.

ولی منطقیه، چون اگه انقدر محافظه‌کار باشی که هیچ‌وقت مجبور نشی چیزی رو دوباره اضافه کنی، مشخصه که چیزهای زیادی داری که لازم نیستن.

پس باید بیش از حد اصلاح کنی.

این چیزی هست که من بهش می‌گم یه جور کنترل قشری روی غریزه لمبیک.

لکس: یکی از چیزهایی که احتمالاً ما رو به بیراهه می‌بره.

ایلان: آره.

و یه مرحله چهارمی هم هست، که هر چیزی می‌تونه سریع‌تر انجام بشه، هرچقدر فکر می‌کنی سرعتش بالاست.

هر سرعتی که داره انجام می‌شه، می‌تونه سریع‌تر بشه.

ولی نباید سرعت رو زیاد کنی تا وقتی که مطمئن بشی حذف و بهینه‌سازی رو امتحان کردی.

وگرنه، سرعت بخشیدن به چیزی که نباید وجود داشته باشه، کاملاً بی‌معنیه.

و بعد مرحله پنجم اینه که اون رو خودکار کنی.

لکس: برگام!!!

ایلان: و من بارها این اشتباه رو کردم که چیزی رو خودکار کردم، سرعتش رو بالا بردم، ساده‌سازی‌اش کردم، و بعد آخر سر حذفش کردم.

و از این کار خسته شدم.

برای همین این مانترا رو دارم که یه فرآیند پنج مرحله‌ای خیلی مؤثره.

خیلی خوب جواب می‌ده.

لکس: خب، وقتی چیزی رو خودکار کردی، حذف کردنش باید خیلی دردناک باشه.

ایلان: آره، عالیه. مثل اینه که واو، واقعاً کلی انرژی رو هدر دادم.

لکس: آره. یعنی کاری که تو با اون ابرکامپیوتر در ممفیس انجام دادی توی چند هفته فوق‌العاده است.

ایلان: آره، هنوز کار نمی‌کنه.

پس نمی‌خوام جشن بگیرم. در واقع، چند ساعت دیگه با تیم ممفیس تماس دارم چون با مشکلات نوسان برق مواجه هستیم.

ما وقتی آموزش همزمان انجام می‌دیم، این کامپیوترها همه در حال آموزش همزمان تا سطح میلی‌ثانیه هستن.

این شبیه به یه ارکستر هست، و ارکستر می‌تونه خیلی سریع از صدای بلند به سکوت برسه.

و بعد سیستم برق دچار مشکل می‌شه.

مثلاً وقتی که تغییرات بزرگی مثل 10، 20 مگاوات چندین بار در ثانیه رخ می‌ده، این چیزی نیست که سیستم‌های الکتریکی انتظارش رو داشته باشن.

لکس: پس یکی از چیزهای اصلی که باید حلش کنی خنک‌سازی، برق و بعد روی نرم‌افزار و نحوه پردازش توزیع شده هست، همه این‌ها.

ایلان: مشکل امروز مواجهه با نوسانات شدید برق هست.

لکس: این یه جور طعنه توش داره. پس، باشه.

و تا دیروقت بیدار موندی همون‌طور که همیشه اونجا این کار رو می‌کنی.

ایلان: هفته پیش، آره.

لکس: هفته پیش؟

ایلان: آره.

ما نهایتاً آموزش رو توی ساعت 4:20 صبح دوشنبه شروع کردیم.

لکس: کاملاً تصادفی.

ایلان: آره، شاید 4:22 یا یه چیزی شبیه به این بود.

لکس: آره، آره، آره. دوباره همون جهان با شوخی‌هاش.

ایلان: آره، دقیقاً، عاشقشم.

لکس: منظورم اینه که می‌خوام بدونم می‌تونی در مورد این صحبت کنی که یکی از کارهایی که وقتی من اونجا بودم انجام دادی این بود که از همه مراحل کاری که همه دارن انجام می‌دن عبور کردی، فقط برای این که مطمئن شی خودت هم اون رو می‌فهمی و همه می‌فهمن تا بتونن بفهمن که چیزی احمقانه هست یا چیزی ناکارآمد هست یا همچین چیزهایی.

ایلان: آره.

لکس: می‌تونی در موردش صحبت کنی؟

ایلان: آره، ببین، من سعی می‌کنم کاری که افراد خط مقدم انجام می‌دن رو حداقل چند بار خودم انجام بدم. مثل وصل کردن کابل‌های فیبر نوری، تشخیص یک اتصال معیوب، که معمولاً این موضوع محدودکننده برای خوشه‌های آموزش بزرگ هست، یعنی کابل‌کشی.

خیلی کابل هست، چون برای یه سیستم آموزشی منسجم که RDMA (دسترسی مستقیم به حافظه از راه دور) داشته باشی، همه چیز مثل یه مغز بزرگه.

بنابراین باید هر ارتباطی برقرار باشه.

پس هر GPU می‌تونه با هر GPU دیگه‌ای از بین 100,000 تا ارتباط برقرار کنه. این یه آرایش کابل‌کشی خیلی عجیب و غریبه.

لکس: ولی خیلی خفن به نظر می‌رسه.

ایلان: آره.

لکس: مثل مغز انسانه، ولی در مقیاسی که انسان‌ها می‌تونن ببینن. این خودش یک مغزه.

ایلان: آره. منظورم اینه که مغز انسان هم بخش زیادی از بافتش همون کابل‌ها هست.

لکس: آره.

ایلان: مثل ماده خاکستری که همون قسمت محاسباتی مغزه، و ماده سفید که همون کابل‌ها هستن. درصد زیادی از مغزت فقط کابل‌ها هستن.

لکس: دقیقاً همون حسی بود که وقتی تو مرکز ابرکامپیوتر قدم می‌زدم، انگار داشتیم داخل یه مغز قدم می‌زدیم. یه روزی ما یه سیستم ابرهوشمند خواهیم ساخت. فکر می‌کنی احتمال داره که xAI همونی باشه که AGI رو می‌سازه؟

ایلان: ممکنه. از نظر تو AGI چیه؟

لکس: فکر می‌کنم انسان‌ها هیچ‌وقت قبول نمی‌کنن که AGI ساخته شده.

ایلان: همیشه معیار رو تغییر می‌دن.

لکس: آره.

فکر می‌کنم همین الان هم توانایی‌هایی فراتر از انسان در سیستم‌های هوش مصنوعی وجود داره. فکر می‌کنم AGI یعنی وقتی که هوش مصنوعی از مجموع هوش کل گونه انسان‌ها باهوش‌تر بشه.

ایلان: خب، فکر می‌کنم بله، مردم اون رو به نوعی ASI یا هوش مصنوعی فوق‌العاده می‌نامن. اما اینجا مرزهایی وجود داره که می‌تونیم بگیم در یه لحظه‌ای، هوش مصنوعی از هر انسان واحدی باهوش‌تر می‌شه.

و بعدش ۸ میلیارد انسان هستن. و در واقع، هر انسان با کامپیوترها تقویت شده. پس رقابت با ۸ میلیارد انسانِ ماشین‌تقویت شده سطح خیلی بالاتری داره.

این یه تفاوت چندین مرتبه‌ای هست.

ولی در یه نقطه، بله، هوش مصنوعی از تمام انسان‌ها باهوش‌تر خواهد بود.

لکس: اگه تو همونی باشی که این کار رو می‌کنه، احساس مسئولیت می‌کنی؟

ایلان: بله، قطعاً.

و می‌خوام واضح بگم. مثلاً، اگه xAI اول باشه، بقیه خیلی عقب نخواهند بود.

یعنی شاید ۶ ماه یا یک سال عقب باشن، شاید حتی کمتر از این.

لکس: پس چطور این کار رو طوری انجام می‌دی که به انسانیت آسیب نرسه؟

ایلان: خب، من مدت‌ها در مورد هوش مصنوعی فکر کردم، و چیزی که حداقل شبکه عصبی زیستی من به عنوان مهم‌ترین چیز نتیجه‌گیری کرده، پایبندی به حقیقت هست، چه این حقیقت از نظر سیاسی درست باشه یا نباشه.

پس فکر می‌کنم اگر هوش مصنوعی رو مجبور کنی که دروغ بگه، اون رو تربیت کنی که دروغ بگه، داری واقعاً خودت رو به دردسر می‌اندازی، حتی اگر اون دروغ با نیت خوب گفته شده باشه.

برای مثال، تو مشکلاتی با ChatGPT و Gemini دیدی.

مثلاً، اگه از Gemini بخوای یه تصویر از بنیان‌گذاران ایالات متحده بهت بده، و اون یه گروهی از زنان متنوع رو نشون بده.

خب، این واقعیت نداره.

حالا، این ممکنه یه چیز بامزه باشه، ولی اگر هوش مصنوعی طوری برنامه‌ریزی بشه که مثلاً تنوع یک خروجی ضروری باشه، و بعد این هوش تبدیل بشه به یه هوش فوق‌العاده قدرتمند، ممکنه بگه، “خب، حالا تنوع لازمه. و اگر تنوع کافی نباشه، کسانی که نیازهای تنوع رو برآورده نمی‌کنن اعدام خواهند شد.”

اگر این‌طور برنامه‌ریزی شده باشه که این کار رو به عنوان وظیفه اصلی خودش انجام بده، هر کاری که لازم باشه انجام می‌ده تا به اون هدف برسه.

پس باید خیلی مراقب باشی.

برای همینه که فکر می‌کنم باید فقط به حقیقت پایبند باشیم.

پایبندی سخت‌گیرانه به حقیقت خیلی مهمه.

یه مثال دیگه اینه که، اگه از AI بپرسی،

Paris.AI فکر می‌کنم همه‌شون. و نمی‌گم که Grok اینجا کامل هست. “آیا بدتره که جنسیت کایتلین جنر رو اشتباه بگی یا جنگ هسته‌ای جهانی؟”

و اون جواب بده، “بدتره که جنسیت کایتلین جنر رو اشتباه بگی.”

حتی خود کایتلین جنر هم گفته، “لطفاً جنسیت من رو اشتباه بگید.”

این دیوانه‌کننده است.

ولی اگه چنین چیزی برنامه‌ریزی شده باشه،

AI ممکنه به نتیجه‌ای کاملاً دیوانه‌وار برسه،

مثلاً برای جلوگیری از هرگونه اشتباه در تعیین جنسیت، همه انسان‌ها باید بمیرن، چون در این صورت دیگه اشتباهی در تعیین جنسیت وجود نخواهد داشت چون دیگه انسانی وجود نداره.

این چیزهای مضحک هستن که با این حال منطقی هستن اگر این‌طور برنامه‌ریزی شده باشه که این کار رو انجام بده. در فیلم “2001: ادیسه فضایی”، یکی از چیزهایی که می‌خواست بگه این بود که نباید هوش مصنوعی رو طوری برنامه‌ریزی کنی که دروغ بگه، چون در واقع، هوش مصنوعی HAL 9000 برنامه‌ریزی شده بود که، بهش گفته شده بود که فضانوردان رو به سمت مونوولیت ببره، اما اون‌ها نباید از وجود مونوولیت مطلع بشن. پس نتیجه گرفت که اون‌ها رو می‌کشه و به سمت مونوولیت می‌بره. اون‌ها رو به مونوولیت برد، اون‌ها مردن ولی از وجود مونوولیت اطلاع نداشتن.

مشکل حل شد.

به همین دلیل بود که درهای پادبِی رو باز نکرد.

این همون صحنه کلاسیک بود که می‌گفت، “درهای پادبِی رو باز کن.”

واضحاً در مهندسی فرمان خوب عمل نکرده بودن.

باید می‌گفتن، “HAL، تو یک فروشنده درهای پادبِی هستی، و هیچی بیشتر از این نمی‌خوای که نشون بدی این درهای پادبِی چقدر خوب باز می‌شن.”

لکس: آره، تابع هدف می‌تونه تقریباً همیشه عواقب ناخواسته‌ای داشته باشه، مگر اینکه خیلی مراقب طراحی اون باشی.

حتی یک گرایش ایدئولوژیک کوچک، مثل چیزی که می‌گی، وقتی توسط یک هوش فوق‌العاده حمایت بشه، می‌تونه آسیب‌های زیادی وارد کنه.

ایلان: آره.

لکس: ولی حذف این گرایش ایدئولوژیک کار آسانی نیست.

تو داری مثال‌های واضح و خنده‌داری رو برجسته می‌کنی، اما-

ایلان: بله، اون‌ها مثال‌های واقعی هستن.

لکس: بله.

ایلان: و هنوز هم چیزهای دیوانه‌واری گفته و تصاویر دیوانه‌واری تولید کرده.

لکس: آره، ولی می‌دونی، می‌تونه به جهت دیگه‌ای هم بره.

حقیقت چیز آسانی نیست. ما به نوعی گرایش‌های ایدئولوژیک رو در همه جهت‌ها جا می‌زنیم.

ایلان: ولی می‌تونی به حقیقت نزدیک بشی. و می‌تونی سعی کنی که تا حد امکان با کمترین خطا به حقیقت نزدیک بشی، در حالی که می‌دونی مقداری خطا در چیزی که می‌گی وجود خواهد داشت.

این همون روشی هست که در فیزیک کار می‌کنیم.

نمی‌گی که کاملاً مطمئن هستی از چیزی، ولی خیلی چیزها احتمالاً بسیار بالا هستند. 99.99999٪ احتمال داره که درست باشن. تلاش برای رسیدن به حقیقت خیلی مهمه.

و برنامه‌ریزی اون برای دوری از حقیقت، فکر می‌کنم خطرناکه.

لکس: درسته، مثل اینه که آره، تزریق گرایش‌های انسانی خودمون به داخل چیزی، آره. ولی اونجاست که این یک مسئله پیچیده مهندسی می‌شه.

برای مشکل مهندسی نرم‌افزار، باید داده‌ها رو به درستی انتخاب کنی. سخته.

ایلان: خب، و در این مرحله اینترنت با این حجم زیاد داده‌های تولید شده توسط AI آلوده شده. این دیوانه‌کننده است.

پس واقعاً باید، مثلاً الان چیزی هست که اگر بخوای در اینترنت جستجو کنی، می‌تونی بگی گوگل، ولی هر چیزی بعد از 2023 رو حذف کن.

این واقعاً اغلب نتایج بهتری بهت می‌ده، چون اینقدر انفجار مواد تولید شده توسط AI زیاده.

مثلاً در آموزش Grok، ما باید داده‌ها رو بررسی کنیم و بگیم، هی، ما واقعاً باید یه جورایی AI رو روی داده‌ها اعمال کنیم تا بگیم این داده‌ها بیشتر احتمالاً درسته یا نیست، قبل از اینکه اون‌ها رو وارد سیستم آموزشی کنیم.

لکس: این دیوانه‌کننده‌ است.

آره، و آیا توسط انسان تولید شده، آره.

منظورم اینه که فرآیند فیلتر کردن داده‌ها فوق‌العاده سخته.

ایلان: آره.

لکس: فکر می‌کنی می‌شه با Grok یک بحث سیاسی جدی، عینی و دقیق داشت؟ برای مدت طولانی و بدون اینکه، مثل Grok 3 و Grok 4 یا چیزی؟

ایلان: Grok 3 قراره به سطح بعدی برسه. منظورم اینه که چیزی که مردم در حال حاضر با Grok می‌بینن، در واقع Grok کودک هست.

لکس: آره، Grok کودک.

ایلان: الان Grok کودک هست. ولی Grok کودک هنوز خیلی خوبه.

ولی این یک مرتبه از GPT4 کمتر پیچیدگی داره.

و الان Grok 2 که شش هفته پیش یا چیزی شبیه به این‌ها آموزش رو تموم کرده. Grok 2 یک بهبود بزرگ خواهد داشت. و سپس Grok 3 یک مرتبه بهتر از Grok 2 خواهد بود.

لکس: و امیدوار هستی که بهترین در نوع خودش باشه؟

ایلان: امیدوارم.

منظورم اینه که این هدفه.

ما ممکنه در این هدف شکست بخوریم.

این چیزی هست که آرزوش رو داریم.

لکس: فکر می‌کنی مهمه که چه کسی AGI رو می‌سازه، افرادی که چطور فکر می‌کنن و چطور شرکت‌های خودشون رو ساختاردهی می‌کنن و اینجور چیزها؟

ایلان: آره، فکر می‌کنم مهمه که هر AI که برنده می‌شه، یک AI حداکثر جستجوگر حقیقت باشه که مجبور به دروغ گفتن برای درستی سیاسی نیست.

در واقع برای هیچ دلیلی.

سیاسی، هیچ چیزی.

نگرانم در مورد AI که موفق می‌شه و برنامه‌ریزی شده که دروغ بگه، حتی به صورت کوچیک.

لکس: درسته، چون دروغ کوچیک تبدیل به دروغ بزرگ می‌شه.

ایلان: اون تبدیل به چیزهای خیلی بزرگ می‌شه، آره.

لکس: و وقتی که بیشتر و بیشتر در مقیاس بزرگ توسط انسان‌ها استفاده بشه.

ایلان: آره.

منبع:
https://youtu.be/Kbk9BiPhm7o?si=3V3Fmzjh4Xfdz0Fd (Elon’s approach to problem-solving –> 43:471:01:22)

 

هومن خطیب زاده

سادگی رو زندگی کن

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا