این متن برگرفته از یکی از قسمتهای پادکست Lex Fridman است، جایی که لکس فریدمن با ایلان ماسک به گفتگو میپردازد. در این بخش از مصاحبه، ایلان ماسک در مورد روشهای خود برای سادهسازی فرایندها و چالشهای مربوط به هوش مصنوعی صحبت میکند. این گفتگو به موضوعات مهمی مثل اهمیت جستجوی حقیقت در توسعهی هوش مصنوعی و جلوگیری از تعصبهای ایدئولوژیک در این حوزه میپردازد. پادکست Lex Fridman به دلیل مصاحبههای عمیق و تحلیلگرانهاش با افراد برجستهی دنیای علم و فناوری شناخته شده است.
لکس: چیزی که من در ممفیس و اون ابرکامپیوتر دیدم، یک تلاش شدید برای سادهسازی فرآیند بود، درک فرآیند، بهبود مداوم و تکرار مداوم اون.
ایلان: خب، گفتنش آسونه که چیزی رو سادهسازی کنی، ولی انجامش خیلی سخته. من یک الگوریتم خیلی ساده دارم که مثل یک مانترا همیشه در ذهنم مرور میکنم. اون الگوریتم اینه که اول از همه الزامات رو به چالش بکشی و الزامات رو کمتر احمقانه کنی.
الزامات همیشه تا یه حدی احمقانهان.
پس اگه میخوای شروع کنی، باید تعداد الزامات رو کم کنی و فرقی نداره که چه کسی این الزامات رو بهت داده، به هر حال یه مقداری احمقانه هستن.
باید از اینجا شروع کنی چون اگه نکنی، ممکنه جواب عالیای برای یک سوال اشتباه پیدا کنی.
پس باید تلاش کنی سوال رو تا جایی که میتونی کمترین اشتباه ممکن رو داشته باشه.
این همون معنی “به چالش کشیدن الزامات” هست.
بعد از اون، مرحله دوم اینه که سعی کنی هر مرحلهای از فرآیند رو حذف کنی.
این موضوع ممکنه خیلی بدیهی به نظر بیاد، ولی اغلب مردم فراموش میکنن که تلاش کنن اون رو کاملاً حذف کنن.
و اگه مجبور نشی حداقل ۱۰ درصد از چیزی که حذف کردی رو دوباره برگردونی، یعنی هنوز به اندازه کافی حذف نکردی.
و بهطور عجیب، اغلب مردم احساس موفقیت میکنن وقتی مجبور نشدن چیزی رو دوباره اضافه کنن.
ولی در واقع موفق نشدن چون خیلی محافظهکار بودن و چیزهایی رو باقی گذاشتن که نباید میموندن.
و تازه مرحله سوم اینه که سعی کنی اون رو بهینهسازی یا سادهتر کنی.
باز هم، شاید این حرفا خیلی بدیهی به نظر برسه وقتی میگمشون، ولی تعداد دفعاتی که من این اشتباهها رو کردم بیشتر از اون چیزیه که دلم بخواد به یاد بیارم.
برای همین این مانترا رو دارم.
در واقع، میتونم بگم که رایجترین اشتباه مهندسای باهوش اینه که چیزی رو بهینه میکنن که نباید اصلاً وجود داشته باشه.
لکس: درسته.
پس همونطور که گفتی، از الگوریتم استفاده میکنی و وقتی به یه مسئله میرسی یا به اون ابرکامپیوتر نگاه میکنی، میپرسی “میشه این رو حذف کرد؟”
ایلان: آره، اول سعی کن حذفش کنی.
لکس: آره، ولی این کار راحتی نیست.
ایلان: نه، و در واقع چیزی که معمولاً مردم رو نگران میکنه اینه که باید بعضی از چیزهایی که حذف کردی رو دوباره برگردونی.
ولی چیزی که باعث میشه سیستم لمبیک ما اشتباه کنه اینه که ما تمایل داریم با یه حس ناراحتی شدید اون زمانی رو به یاد بیاریم که یه چیزی رو حذف کردیم که بعداً بهش نیاز داشتیم.
و مردم اون یه بار رو به یاد میارن، اون زمانی که سه سال پیش یادشون رفت یه چیزی رو بذارن و باعث دردسر شد.
و بعد از اون بیش از حد محتاط میشن و چیزهای زیادی رو اضافه میکنن و مسائل رو بیش از حد پیچیده میکنن.
پس در واقع باید بگی، “نه، ما عمداً قراره بیشتر از چیزی که باید رو حذف کنیم.”
بنابراین حداقل یکی از هر ۱۰ چیزی که حذف کردیم رو دوباره برمیگردونیم.
لکس: من دیدم که تو پیشنهاد دادی چیزی رو حذف کنن و میشه درد رو حس کرد.
ایلان: اوه، بله، کاملاً.
لکس: همه یه کمی از اون درد رو حس میکنن.
ایلان: کاملاً، و من بهشون از قبل میگم، آره، بعضی از چیزهایی که حذف میکنیم رو دوباره برمیگردونیم.
و این موضوع یه کم آدمها رو نگران میکنه.
ولی منطقیه، چون اگه انقدر محافظهکار باشی که هیچوقت مجبور نشی چیزی رو دوباره اضافه کنی، مشخصه که چیزهای زیادی داری که لازم نیستن.
پس باید بیش از حد اصلاح کنی.
این چیزی هست که من بهش میگم یه جور کنترل قشری روی غریزه لمبیک.
لکس: یکی از چیزهایی که احتمالاً ما رو به بیراهه میبره.
ایلان: آره.
و یه مرحله چهارمی هم هست، که هر چیزی میتونه سریعتر انجام بشه، هرچقدر فکر میکنی سرعتش بالاست.
هر سرعتی که داره انجام میشه، میتونه سریعتر بشه.
ولی نباید سرعت رو زیاد کنی تا وقتی که مطمئن بشی حذف و بهینهسازی رو امتحان کردی.
وگرنه، سرعت بخشیدن به چیزی که نباید وجود داشته باشه، کاملاً بیمعنیه.
و بعد مرحله پنجم اینه که اون رو خودکار کنی.
لکس: برگام!!!
ایلان: و من بارها این اشتباه رو کردم که چیزی رو خودکار کردم، سرعتش رو بالا بردم، سادهسازیاش کردم، و بعد آخر سر حذفش کردم.
و از این کار خسته شدم.
برای همین این مانترا رو دارم که یه فرآیند پنج مرحلهای خیلی مؤثره.
خیلی خوب جواب میده.
لکس: خب، وقتی چیزی رو خودکار کردی، حذف کردنش باید خیلی دردناک باشه.
ایلان: آره، عالیه. مثل اینه که واو، واقعاً کلی انرژی رو هدر دادم.
لکس: آره. یعنی کاری که تو با اون ابرکامپیوتر در ممفیس انجام دادی توی چند هفته فوقالعاده است.
ایلان: آره، هنوز کار نمیکنه.
پس نمیخوام جشن بگیرم. در واقع، چند ساعت دیگه با تیم ممفیس تماس دارم چون با مشکلات نوسان برق مواجه هستیم.
ما وقتی آموزش همزمان انجام میدیم، این کامپیوترها همه در حال آموزش همزمان تا سطح میلیثانیه هستن.
این شبیه به یه ارکستر هست، و ارکستر میتونه خیلی سریع از صدای بلند به سکوت برسه.
و بعد سیستم برق دچار مشکل میشه.
مثلاً وقتی که تغییرات بزرگی مثل 10، 20 مگاوات چندین بار در ثانیه رخ میده، این چیزی نیست که سیستمهای الکتریکی انتظارش رو داشته باشن.
لکس: پس یکی از چیزهای اصلی که باید حلش کنی خنکسازی، برق و بعد روی نرمافزار و نحوه پردازش توزیع شده هست، همه اینها.
ایلان: مشکل امروز مواجهه با نوسانات شدید برق هست.
لکس: این یه جور طعنه توش داره. پس، باشه.
و تا دیروقت بیدار موندی همونطور که همیشه اونجا این کار رو میکنی.
ایلان: هفته پیش، آره.
لکس: هفته پیش؟
ایلان: آره.
ما نهایتاً آموزش رو توی ساعت 4:20 صبح دوشنبه شروع کردیم.
لکس: کاملاً تصادفی.
ایلان: آره، شاید 4:22 یا یه چیزی شبیه به این بود.
لکس: آره، آره، آره. دوباره همون جهان با شوخیهاش.
ایلان: آره، دقیقاً، عاشقشم.
لکس: منظورم اینه که میخوام بدونم میتونی در مورد این صحبت کنی که یکی از کارهایی که وقتی من اونجا بودم انجام دادی این بود که از همه مراحل کاری که همه دارن انجام میدن عبور کردی، فقط برای این که مطمئن شی خودت هم اون رو میفهمی و همه میفهمن تا بتونن بفهمن که چیزی احمقانه هست یا چیزی ناکارآمد هست یا همچین چیزهایی.
ایلان: آره.
لکس: میتونی در موردش صحبت کنی؟
ایلان: آره، ببین، من سعی میکنم کاری که افراد خط مقدم انجام میدن رو حداقل چند بار خودم انجام بدم. مثل وصل کردن کابلهای فیبر نوری، تشخیص یک اتصال معیوب، که معمولاً این موضوع محدودکننده برای خوشههای آموزش بزرگ هست، یعنی کابلکشی.
خیلی کابل هست، چون برای یه سیستم آموزشی منسجم که RDMA (دسترسی مستقیم به حافظه از راه دور) داشته باشی، همه چیز مثل یه مغز بزرگه.
بنابراین باید هر ارتباطی برقرار باشه.
پس هر GPU میتونه با هر GPU دیگهای از بین 100,000 تا ارتباط برقرار کنه. این یه آرایش کابلکشی خیلی عجیب و غریبه.
لکس: ولی خیلی خفن به نظر میرسه.
ایلان: آره.
لکس: مثل مغز انسانه، ولی در مقیاسی که انسانها میتونن ببینن. این خودش یک مغزه.
ایلان: آره. منظورم اینه که مغز انسان هم بخش زیادی از بافتش همون کابلها هست.
لکس: آره.
ایلان: مثل ماده خاکستری که همون قسمت محاسباتی مغزه، و ماده سفید که همون کابلها هستن. درصد زیادی از مغزت فقط کابلها هستن.
لکس: دقیقاً همون حسی بود که وقتی تو مرکز ابرکامپیوتر قدم میزدم، انگار داشتیم داخل یه مغز قدم میزدیم. یه روزی ما یه سیستم ابرهوشمند خواهیم ساخت. فکر میکنی احتمال داره که xAI همونی باشه که AGI رو میسازه؟
ایلان: ممکنه. از نظر تو AGI چیه؟
لکس: فکر میکنم انسانها هیچوقت قبول نمیکنن که AGI ساخته شده.
ایلان: همیشه معیار رو تغییر میدن.
لکس: آره.
فکر میکنم همین الان هم تواناییهایی فراتر از انسان در سیستمهای هوش مصنوعی وجود داره. فکر میکنم AGI یعنی وقتی که هوش مصنوعی از مجموع هوش کل گونه انسانها باهوشتر بشه.
ایلان: خب، فکر میکنم بله، مردم اون رو به نوعی ASI یا هوش مصنوعی فوقالعاده مینامن. اما اینجا مرزهایی وجود داره که میتونیم بگیم در یه لحظهای، هوش مصنوعی از هر انسان واحدی باهوشتر میشه.
و بعدش ۸ میلیارد انسان هستن. و در واقع، هر انسان با کامپیوترها تقویت شده. پس رقابت با ۸ میلیارد انسانِ ماشینتقویت شده سطح خیلی بالاتری داره.
این یه تفاوت چندین مرتبهای هست.
ولی در یه نقطه، بله، هوش مصنوعی از تمام انسانها باهوشتر خواهد بود.
لکس: اگه تو همونی باشی که این کار رو میکنه، احساس مسئولیت میکنی؟
ایلان: بله، قطعاً.
و میخوام واضح بگم. مثلاً، اگه xAI اول باشه، بقیه خیلی عقب نخواهند بود.
یعنی شاید ۶ ماه یا یک سال عقب باشن، شاید حتی کمتر از این.
لکس: پس چطور این کار رو طوری انجام میدی که به انسانیت آسیب نرسه؟
ایلان: خب، من مدتها در مورد هوش مصنوعی فکر کردم، و چیزی که حداقل شبکه عصبی زیستی من به عنوان مهمترین چیز نتیجهگیری کرده، پایبندی به حقیقت هست، چه این حقیقت از نظر سیاسی درست باشه یا نباشه.
پس فکر میکنم اگر هوش مصنوعی رو مجبور کنی که دروغ بگه، اون رو تربیت کنی که دروغ بگه، داری واقعاً خودت رو به دردسر میاندازی، حتی اگر اون دروغ با نیت خوب گفته شده باشه.
برای مثال، تو مشکلاتی با ChatGPT و Gemini دیدی.
مثلاً، اگه از Gemini بخوای یه تصویر از بنیانگذاران ایالات متحده بهت بده، و اون یه گروهی از زنان متنوع رو نشون بده.
خب، این واقعیت نداره.
حالا، این ممکنه یه چیز بامزه باشه، ولی اگر هوش مصنوعی طوری برنامهریزی بشه که مثلاً تنوع یک خروجی ضروری باشه، و بعد این هوش تبدیل بشه به یه هوش فوقالعاده قدرتمند، ممکنه بگه، “خب، حالا تنوع لازمه. و اگر تنوع کافی نباشه، کسانی که نیازهای تنوع رو برآورده نمیکنن اعدام خواهند شد.”
اگر اینطور برنامهریزی شده باشه که این کار رو به عنوان وظیفه اصلی خودش انجام بده، هر کاری که لازم باشه انجام میده تا به اون هدف برسه.
پس باید خیلی مراقب باشی.
برای همینه که فکر میکنم باید فقط به حقیقت پایبند باشیم.
پایبندی سختگیرانه به حقیقت خیلی مهمه.
یه مثال دیگه اینه که، اگه از AI بپرسی،
Paris.AI فکر میکنم همهشون. و نمیگم که Grok اینجا کامل هست. “آیا بدتره که جنسیت کایتلین جنر رو اشتباه بگی یا جنگ هستهای جهانی؟”
و اون جواب بده، “بدتره که جنسیت کایتلین جنر رو اشتباه بگی.”
حتی خود کایتلین جنر هم گفته، “لطفاً جنسیت من رو اشتباه بگید.”
این دیوانهکننده است.
ولی اگه چنین چیزی برنامهریزی شده باشه،
AI ممکنه به نتیجهای کاملاً دیوانهوار برسه،
مثلاً برای جلوگیری از هرگونه اشتباه در تعیین جنسیت، همه انسانها باید بمیرن، چون در این صورت دیگه اشتباهی در تعیین جنسیت وجود نخواهد داشت چون دیگه انسانی وجود نداره.
این چیزهای مضحک هستن که با این حال منطقی هستن اگر اینطور برنامهریزی شده باشه که این کار رو انجام بده. در فیلم “2001: ادیسه فضایی”، یکی از چیزهایی که میخواست بگه این بود که نباید هوش مصنوعی رو طوری برنامهریزی کنی که دروغ بگه، چون در واقع، هوش مصنوعی HAL 9000 برنامهریزی شده بود که، بهش گفته شده بود که فضانوردان رو به سمت مونوولیت ببره، اما اونها نباید از وجود مونوولیت مطلع بشن. پس نتیجه گرفت که اونها رو میکشه و به سمت مونوولیت میبره. اونها رو به مونوولیت برد، اونها مردن ولی از وجود مونوولیت اطلاع نداشتن.
مشکل حل شد.
به همین دلیل بود که درهای پادبِی رو باز نکرد.
این همون صحنه کلاسیک بود که میگفت، “درهای پادبِی رو باز کن.”
واضحاً در مهندسی فرمان خوب عمل نکرده بودن.
باید میگفتن، “HAL، تو یک فروشنده درهای پادبِی هستی، و هیچی بیشتر از این نمیخوای که نشون بدی این درهای پادبِی چقدر خوب باز میشن.”
لکس: آره، تابع هدف میتونه تقریباً همیشه عواقب ناخواستهای داشته باشه، مگر اینکه خیلی مراقب طراحی اون باشی.
حتی یک گرایش ایدئولوژیک کوچک، مثل چیزی که میگی، وقتی توسط یک هوش فوقالعاده حمایت بشه، میتونه آسیبهای زیادی وارد کنه.
ایلان: آره.
لکس: ولی حذف این گرایش ایدئولوژیک کار آسانی نیست.
تو داری مثالهای واضح و خندهداری رو برجسته میکنی، اما-
ایلان: بله، اونها مثالهای واقعی هستن.
لکس: بله.
ایلان: و هنوز هم چیزهای دیوانهواری گفته و تصاویر دیوانهواری تولید کرده.
لکس: آره، ولی میدونی، میتونه به جهت دیگهای هم بره.
حقیقت چیز آسانی نیست. ما به نوعی گرایشهای ایدئولوژیک رو در همه جهتها جا میزنیم.
ایلان: ولی میتونی به حقیقت نزدیک بشی. و میتونی سعی کنی که تا حد امکان با کمترین خطا به حقیقت نزدیک بشی، در حالی که میدونی مقداری خطا در چیزی که میگی وجود خواهد داشت.
این همون روشی هست که در فیزیک کار میکنیم.
نمیگی که کاملاً مطمئن هستی از چیزی، ولی خیلی چیزها احتمالاً بسیار بالا هستند. 99.99999٪ احتمال داره که درست باشن. تلاش برای رسیدن به حقیقت خیلی مهمه.
و برنامهریزی اون برای دوری از حقیقت، فکر میکنم خطرناکه.
لکس: درسته، مثل اینه که آره، تزریق گرایشهای انسانی خودمون به داخل چیزی، آره. ولی اونجاست که این یک مسئله پیچیده مهندسی میشه.
برای مشکل مهندسی نرمافزار، باید دادهها رو به درستی انتخاب کنی. سخته.
ایلان: خب، و در این مرحله اینترنت با این حجم زیاد دادههای تولید شده توسط AI آلوده شده. این دیوانهکننده است.
پس واقعاً باید، مثلاً الان چیزی هست که اگر بخوای در اینترنت جستجو کنی، میتونی بگی گوگل، ولی هر چیزی بعد از 2023 رو حذف کن.
این واقعاً اغلب نتایج بهتری بهت میده، چون اینقدر انفجار مواد تولید شده توسط AI زیاده.
مثلاً در آموزش Grok، ما باید دادهها رو بررسی کنیم و بگیم، هی، ما واقعاً باید یه جورایی AI رو روی دادهها اعمال کنیم تا بگیم این دادهها بیشتر احتمالاً درسته یا نیست، قبل از اینکه اونها رو وارد سیستم آموزشی کنیم.
لکس: این دیوانهکننده است.
آره، و آیا توسط انسان تولید شده، آره.
منظورم اینه که فرآیند فیلتر کردن دادهها فوقالعاده سخته.
ایلان: آره.
لکس: فکر میکنی میشه با Grok یک بحث سیاسی جدی، عینی و دقیق داشت؟ برای مدت طولانی و بدون اینکه، مثل Grok 3 و Grok 4 یا چیزی؟
ایلان: Grok 3 قراره به سطح بعدی برسه. منظورم اینه که چیزی که مردم در حال حاضر با Grok میبینن، در واقع Grok کودک هست.
لکس: آره، Grok کودک.
ایلان: الان Grok کودک هست. ولی Grok کودک هنوز خیلی خوبه.
ولی این یک مرتبه از GPT4 کمتر پیچیدگی داره.
و الان Grok 2 که شش هفته پیش یا چیزی شبیه به اینها آموزش رو تموم کرده. Grok 2 یک بهبود بزرگ خواهد داشت. و سپس Grok 3 یک مرتبه بهتر از Grok 2 خواهد بود.
لکس: و امیدوار هستی که بهترین در نوع خودش باشه؟
ایلان: امیدوارم.
منظورم اینه که این هدفه.
ما ممکنه در این هدف شکست بخوریم.
این چیزی هست که آرزوش رو داریم.
لکس: فکر میکنی مهمه که چه کسی AGI رو میسازه، افرادی که چطور فکر میکنن و چطور شرکتهای خودشون رو ساختاردهی میکنن و اینجور چیزها؟
ایلان: آره، فکر میکنم مهمه که هر AI که برنده میشه، یک AI حداکثر جستجوگر حقیقت باشه که مجبور به دروغ گفتن برای درستی سیاسی نیست.
در واقع برای هیچ دلیلی.
سیاسی، هیچ چیزی.
نگرانم در مورد AI که موفق میشه و برنامهریزی شده که دروغ بگه، حتی به صورت کوچیک.
لکس: درسته، چون دروغ کوچیک تبدیل به دروغ بزرگ میشه.
ایلان: اون تبدیل به چیزهای خیلی بزرگ میشه، آره.
لکس: و وقتی که بیشتر و بیشتر در مقیاس بزرگ توسط انسانها استفاده بشه.
ایلان: آره.
منبع:
https://youtu.be/Kbk9BiPhm7o?si=3V3Fmzjh4Xfdz0Fd (Elon’s approach to problem-solving –> 43:47 – 1:01:22)