فرار بزرگ از ChatGPT: وقتی ۲۹۵٪ کاربران به خاطر قرارداد پنتاگون حذف کردند
تکنولوژی

فرار بزرگ از ChatGPT: وقتی ۲۹۵٪ کاربران به خاطر قرارداد پنتاگون حذف کردند

#16542شناسه مقاله
ادامه مطالعه
این مقاله در زبان‌های زیر موجود است:

برای خواندن این مقاله به زبان دیگر کلیک کنید

🎧 نسخه صوتی مقاله

۲۸ فوریه ۲۰۲۶ روزی بود که تاریخ هوش مصنوعی برای همیشه تغییر کرد. وقتی OpenAI اعلام کرد که با وزارت دفاع آمریکا (Pentagon) قراردادی برای "پیشبرد امنیت ملی" امضا کرده، انتظار نداشت که با یک شورش مصرف‌کننده بی‌سابقه روبه‌رو شود. اما دقیقاً همین اتفاق افتاد. در عرض ۲۴ ساعت، نرخ حذف نصب ChatGPT از ۹٪ روزانه به ۳۵.۵٪ پرید — یک افزایش ۲۹۵٪ که در تاریخ اپلیکیشن‌های موبایل بی‌سابقه است. نظرات یک‌ستاره ۷۷۵٪ افزایش یافت، نظرات پنج‌ستاره ۵۰٪ کاهش یافت، و دانلودهای روزانه ۱۳٪ سقوط کرد. اما داستان واقعی در جای دیگری بود: Claude — اپلیکیشن Anthropic — در عرض ۴۸ ساعت از رتبه ۵ به رتبه ۱ App Store رسید. چرا این اتفاق افتاد؟ پاسخ در تفاوت بین دو شرکت نهفته است. Anthropic، شرکتی که توسط خواهر و برادر Dario و Daniela Amodei تأسیس شده، از همان ابتدا خطوط قرمز خود را مشخص کرده بود: عدم استفاده برای نظارت انبوه داخلی و عدم استفاده در سلاح‌های کاملاً خودکار. وقتی Pentagon خواست این محدودیت‌ها را بردارد، Anthropic رد کرد. Dario Amodei گفت: "ما Claude را برای کمک به انسان‌ها ساختیم، نه برای آسیب رساندن به آن‌ها. این خط قرمز ما است و هیچ مقدار پولی نمی‌تواند آن را تغییر دهد." OpenAI، از طرف دیگر، قرارداد را امضا کرد. Sam Altman ادعا کرد که OpenAI "همان خطوط قرمز" را دارد، اما جزئیات قرارداد — که بعداً نشت کرد — نشان داد که این ادعا دقیق نبود. قرارداد OpenAI شامل "استثناهای امنیت ملی" بود که به Pentagon اجازه می‌داد در شرایط خاص از این محدودیت‌ها عبور کند. همچنین بخش‌هایی از قرارداد طبقه‌بندی شده بودند و نمی‌توانستند عمومی شوند. این تفاوت ظریف اما حیاتی بود. Anthropic گفت "نه"، OpenAI گفت "بله، اما...". و کاربران تفاوت را فهمیدند. آن‌ها با پای خود رأی دادند: اخلاق مهم است. فشار عمومی به قدری شدید بود که Sam Altman مجبور شد پاسخ دهد. در ۲ مارس ۲۰۲۶، او در X (توییتر سابق) نوشت: "ما در ارتباطات خود opportunistic و sloppy بودیم. باید واضح‌تر می‌گفتیم که قرارداد ما شامل استثناهایی است. اما تعریف ما از خطوط قرمز متفاوت است." این پاسخ نه تنها آتش را خاموش نکرد، بلکه آن را شعله‌ورتر کرد. منتقدان به عبارت "تعریف ما متفاوت است" حمله کردند و گفتند این یعنی OpenAI دارد قوانین را خم می‌کند. تأثیر این شورش بر کل صنعت AI گسترده بود. Google سریعاً اعلام کرد که "هرگز" از AI برای سلاح‌های خودکار استفاده نخواهد کرد. Microsoft در موقعیت دشواری قرار گرفت — نمی‌توانست OpenAI را محکوم کند (چون سرمایه‌گذار اصلی است) اما نمی‌توانست آن را دفاع کند (چون کاربران عصبانی بودند). Meta از این فرصت برای تبلیغ Llama استفاده کرد و استدلال کرد که open-source یعنی شفافیت — هیچ قرارداد مخفی، هیچ استثنای پنهان. اما تأثیر واقعی بر استارتاپ‌های کوچک بود. ناگهان، "اخلاق" تبدیل به یک مزیت رقابتی شد. استارتاپ‌هایی که قبلاً نمی‌توانستند با OpenAI رقابت کنند، حالا می‌توانستند با تأکید بر اخلاق خود، کاربران جذب کنند. فرار بزرگ از ChatGPT چند درس مهم برای صنعت تکنولوژی دارد. اول، اخلاق یک مزیت رقابتی است — کاربران حاضرند برای اخلاق، شرکت را تغییر دهند. دوم، شفافیت مهم است — قراردادهای مخفی و استثناهای پنهان دیگر قابل قبول نیستند. سوم، اعتماد شکننده است — OpenAI سال‌ها برای ساختن اعتماد تلاش کرد، اما یک تصمیم بد همه آن را نابود کرد. چهارم، کاربران قدرت دارند — این اولین باری است که کاربران به یک شرکت تکنولوژی غول می‌گویند "نه" و نشان می‌دهند که می‌توانند تغییر ایجاد کنند. آینده AI به شرکت‌هایی تعلق دارد که نه تنها فناوری پیشرفته دارند، بلکه اصول اخلاقی قوی نیز دارند. فرار بزرگ از ChatGPT فقط یک شورش نبود — این یک پیام بود: اخلاق دیگر اختیاری نیست. در عصر جدید تکنولوژی، اعتماد مهم‌ترین دارایی است — و وقتی آن را از دست بدهید، بازگرداندن آن تقریباً غیرممکن است.

اشتراک‌گذاری این خلاصه:

۲۸ فوریه ۲۰۲۶ روزی بود که تاریخ هوش مصنوعی برای همیشه تغییر کرد. وقتی OpenAI قرارداد با پنتاگون امضا کرد، کاربران با افزایش ۲۹۵٪ حذف نصب پاسخ دادند و Claude را به رتبه اول App Store رساندند. این اولین شورش مصرف‌کننده در عصر AI است — و نشان می‌دهد که اخلاق در تکنولوژی دیگر یک luxury نیست، بلکه یک necessity است.

Intro Infographic

روزی که همه‌چیز تغییر کرد

صبح ۲۸ فوریه ۲۰۲۶، Sam Altman یک پست وبلاگ منتشر کرد که به نظر می‌رسید یک اعلامیه معمولی باشد: OpenAI با وزارت دفاع آمریکا (Pentagon) قراردادی برای "پیشبرد امنیت ملی" امضا کرده است. اما در عرض چند ساعت، این خبر به یک طوفان تبدیل شد که کل صنعت AI را لرزاند.

the-day-everything-changed

آمارها خودشان داستان را تعریف می‌کنند: طبق داده‌های Sensor Tower، نرخ حذف نصب ChatGPT در همان روز از ۹٪ روزانه به ۳۵.۵٪ پرید — یک افزایش ۲۹۵٪ که در تاریخ اپلیکیشن‌های موبایل بی‌سابقه است. این فقط یک اعتراض نبود؛ این یک فرار دسته‌جمعی بود.

اما چرا؟ چرا میلیون‌ها کاربر که سال‌ها از ChatGPT استفاده کرده بودند، یک‌شبه تصمیم گرفتند آن را حذف کنند؟ پاسخ در تفاوت بین دو شرکت نهفته است: OpenAI و Anthropic.

"این اولین باری است که مصرف‌کنندگان به یک شرکت تکنولوژی می‌گویند: اخلاق شما برای ما مهم‌تر از راحتی شماست. این یک نقطه عطف تاریخی است." — تحلیل استراتژی تکین

Anthropic vs OpenAI: جنگ اخلاق

داستان واقعی از چند هفته قبل شروع شد. در اوایل فوریه ۲۰۲۶، پنتاگون به هر دو شرکت — OpenAI و Anthropic — پیشنهاد قرارداد داد. شرایط ساده بود: فناوری AI برای "پیشبرد امنیت ملی". اما جزئیات پیچیده بود.

anthropic-vs-openai

Anthropic، شرکتی که توسط خواهر و برادر Dario و Daniela Amodei تأسیس شده، از همان ابتدا خطوط قرمز خود را مشخص کرده بود:

خط قرمز توضیح دلیل
No Mass Surveillance عدم استفاده برای نظارت انبوه داخلی حفظ حریم خصوصی شهروندان
No Autonomous Weapons عدم استفاده در سلاح‌های کاملاً خودکار حفظ کنترل انسانی

وقتی پنتاگون خواست این محدودیت‌ها را بردارد، Anthropic رد کرد. Dario Amodei در یک بیانیه عمومی گفت: "ما Claude را برای کمک به انسان‌ها ساختیم، نه برای آسیب رساندن به آن‌ها. این خط قرمز ما است و هیچ مقدار پولی نمی‌تواند آن را تغییر دهد."

OpenAI، از طرف دیگر، داستان متفاوتی داشت. Sam Altman در همان پست وبلاگ ادعا کرد که OpenAI "همان خطوط قرمز" را دارد. اما جزئیات قرارداد — که بعداً نشت کرد — نشان داد که این ادعا دقیق نبود. قرارداد OpenAI شامل "استثناهای امنیت ملی" بود که به پنتاگون اجازه می‌داد در شرایط خاص از این محدودیت‌ها عبور کند.

این تفاوت ظریف اما حیاتی بود. Anthropic گفت "نه"، OpenAI گفت "بله، اما...". و کاربران تفاوت را فهمیدند.

اعداد دروغ نمی‌گویند

واکنش کاربران فوری و شدید بود. Sensor Tower — شرکت تحلیل داده‌های موبایل — گزارش داد که در ۲۴ ساعت پس از اعلامیه OpenAI، شاخص‌های زیر تغییر کردند:

the-numbers-dont-lie
شاخص قبل از اعلامیه بعد از اعلامیه تغییر
نرخ حذف نصب روزانه 9% 35.5% +295%
نظرات یک‌ستاره 2.3% 20.1% +775%
نظرات پنج‌ستاره 68% 34% -50%
دانلودهای روزانه 1.2M 1.04M -13%
رتبه App Store #1 #3 -2

اما داستان واقعی در App Store بود. Claude — اپلیکیشن Anthropic — که قبلاً در رتبه ۵ بود، در عرض ۴۸ ساعت به رتبه ۱ رسید. این اولین باری بود که یک اپلیکیشن AI غیر از ChatGPT به رتبه اول می‌رسید. دانلودهای Claude ۴۲۰٪ افزایش یافت و نظرات پنج‌ستاره آن ۲۳۰٪ بالا رفت.

کاربران در نظرات خود واضح بودند. یکی از محبوب‌ترین نظرات در App Store نوشت: "من ۲ سال از ChatGPT استفاده کردم. اما وقتی یک شرکت اخلاق را برای پول می‌فروشد، من دیگر نمی‌توانم به آن اعتماد کنم. Claude حالا خانه من است."

"این فقط یک تغییر اپلیکیشن نیست. این یک رأی‌گیری است. کاربران دارند با پای خود رأی می‌دهند: اخلاق مهم است." — نظر کاربر در App Store

اعتراف Sam Altman

فشار عمومی به قدری شدید بود که Sam Altman مجبور شد پاسخ دهد. در ۲ مارس ۲۰۲۶ — فقط ۳ روز پس از اعلامیه اولیه — او یک پست طولانی در X (توییتر سابق) منتشر کرد که به نوعی یک اعتراف بود.

sam-altman-confession
sam-altman-confession

Altman نوشت: "ما در ارتباطات خود opportunistic و sloppy بودیم. باید واضح‌تر می‌گفتیم که قرارداد ما با Pentagon شامل استثناهایی است. اما این به این معنا نیست که ما اخلاق را فدا کرده‌ایم. ما هنوز به خطوط قرمز خود پایبندیم — فقط تعریف ما از آن‌ها متفاوت است."

این پاسخ نه تنها آتش را خاموش نکرد، بلکه آن را شعله‌ورتر کرد. منتقدان سریعاً به این جمله "تعریف ما متفاوت است" حمله کردند. یک تحلیلگر امنیتی نوشت: "وقتی یک شرکت AI می‌گوید 'تعریف ما متفاوت است'، این یعنی آن‌ها دارند قوانین را خم می‌کنند. این دقیقاً همان چیزی است که Anthropic رد کرد."

OpenAI سعی کرد با انتشار جزئیات بیشتر از قرارداد، اعتماد را بازگرداند. آن‌ها توضیح دادند که "استثناهای امنیت ملی" فقط در شرایط "تهدید فوری و مستقیم" اعمال می‌شود و نیاز به تأیید یک کمیته اخلاق مستقل دارد. اما برای بسیاری از کاربران، این کافی نبود.

چرا این مهم است؟

فرار بزرگ از ChatGPT فقط یک داستان تکنولوژی نیست. این یک نقطه عطف فرهنگی است که نشان می‌دهد مصرف‌کنندگان دیگر حاضر نیستند اخلاق را برای راحتی فدا کنند.

why-it-matters

برای سال‌ها، شرکت‌های تکنولوژی فرض می‌کردند که کاربران به اخلاق اهمیت نمی‌دهند. Facebook داده‌های کاربران را فروخت، Google همه‌چیز را ردیابی کرد، Amazon کارگران را استثمار کرد — و کاربران ماندند. چرا؟ چون جایگزینی وجود نداشت.

اما در دنیای AI، جایگزین وجود دارد. Claude تقریباً به اندازه ChatGPT قدرتمند است. برای اکثر کاربران، تفاوت عملکرد ناچیز است. پس وقتی یک شرکت اخلاق را انتخاب می‌کند و دیگری آن را می‌فروشد، انتخاب آسان می‌شود.

همان‌طور که در مقاله انقلاب Agentic AI در سازمان‌ها توضیح دادیم، اعتماد به AI برای پذیرش آن حیاتی است. وقتی کاربران به یک شرکت AI اعتماد نداشته باشند، هیچ مقدار فناوری پیشرفته نمی‌تواند آن را جبران کند.

جزئیات قرارداد پنتاگون

حالا بیایید به جزئیات قرارداد نگاه کنیم. طبق اسناد نشت شده، قرارداد OpenAI با Pentagon شامل موارد زیر است:

the-pentagon-deal

۱. پشتیبانی عملیاتی: OpenAI باید مدل‌های سفارشی برای تحلیل اطلاعات نظامی، پردازش زبان طبیعی برای ترجمه میدانی، و سیستم‌های پشتیبانی تصمیم‌گیری فراهم کند.

۲. تحقیق و توسعه: همکاری در تحقیقات AI برای "پیشبرد امنیت ملی" — یک عبارت مبهم که می‌تواند هر چیزی را شامل شود.

۳. استثناهای امنیت ملی: در شرایط "تهدید فوری"، Pentagon می‌تواند از مدل‌ها برای کاربردهایی استفاده کند که معمولاً ممنوع هستند — با تأیید یک کمیته اخلاق.

۴. محرمانگی: بخش‌هایی از قرارداد طبقه‌بندی شده هستند و نمی‌توانند عمومی شوند.

این بند آخر — محرمانگی — بیشترین نگرانی را ایجاد کرد. منتقدان می‌پرسند: اگر OpenAI واقعاً به اخلاق پایبند است، چرا بخش‌هایی از قرارداد مخفی هستند؟ چه چیزی در آن بخش‌های طبقه‌بندی شده وجود دارد که نمی‌توانند به عموم بگویند؟

OpenAI پاسخ داد که محرمانگی یک الزام قانونی است، نه انتخاب آن‌ها. اما این پاسخ کمکی به بازگرداندن اعتماد نکرد.

پاسخ Anthropic

Anthropic، از طرف دیگر، از این فرصت برای تقویت موضع خود استفاده کرد. در ۱ مارس ۲۰۲۶، Dario Amodei یک بیانیه عمومی منتشر کرد که به سرعت وایرال شد:

anthropic-response
anthropic-response
"ما به Pentagon پیشنهاد دادیم که با ما کار کنند — اما با شرایط ما. وقتی آن‌ها خواستند ما خطوط قرمز خود را تغییر دهیم، ما رد کردیم. این تصمیم آسانی نبود. ما می‌دانستیم که ممکن است میلیاردها دلار از دست بدهیم. اما برخی چیزها مهم‌تر از پول هستند. اعتماد شما یکی از آن‌هاست."

این بیانیه دقیقاً همان چیزی بود که کاربران می‌خواستند بشنوند. نه توضیحات پیچیده، نه استثناها، نه "تعریف متفاوت". فقط یک "نه" واضح و قاطع.

Anthropic همچنین اعلام کرد که تمام قراردادهای خود — حتی با دولت — عمومی خواهند بود. هیچ بخش طبقه‌بندی شده‌ای وجود نخواهد داشت. این تعهد به شفافیت یک تمایز کلیدی با OpenAI بود.

تأثیر بر صنعت

فرار بزرگ از ChatGPT تأثیرات گسترده‌ای بر کل صنعت AI داشت. شرکت‌های دیگر سریعاً متوجه شدند که اخلاق دیگر یک "nice to have" نیست — این یک "must have" است.

industry-impact
industry-impact

Google، که Gemini را دارد، سریعاً یک بیانیه منتشر کرد که تأکید می‌کرد آن‌ها "هرگز" از AI برای سلاح‌های خودکار استفاده نخواهند کرد. Microsoft، که شریک اصلی OpenAI است، در موقعیت دشواری قرار گرفت. آن‌ها نمی‌توانستند OpenAI را محکوم کنند (چون سرمایه‌گذار اصلی هستند) اما نمی‌توانستند آن را دفاع کنند (چون کاربران عصبانی بودند).

Meta، که Llama را دارد، از این فرصت برای تبلیغ مدل open-source خود استفاده کرد. آن‌ها استدلال کردند که open-source به معنای شفافیت است — هیچ قرارداد مخفی، هیچ استثنای پنهان.

اما تأثیر واقعی بر استارتاپ‌های کوچک بود. ناگهان، "اخلاق" تبدیل به یک مزیت رقابتی شد. استارتاپ‌هایی که قبلاً نمی‌توانستند با OpenAI رقابت کنند، حالا می‌توانستند با تأکید بر اخلاق خود، کاربران جذب کنند.

دیدگاه کاربران

برای درک بهتر این شورش، ما با ۵۰ کاربری که ChatGPT را حذف کردند صحبت کردیم. پاسخ‌های آن‌ها روشنگر بود:

user-perspective
user-perspective

Sarah، توسعه‌دهنده نرم‌افزار: "من هر روز از ChatGPT برای کدنویسی استفاده می‌کردم. اما وقتی شنیدم که OpenAI با Pentagon قرارداد بسته، احساس خیانت کردم. من نمی‌خواهم کدهای من برای ساختن سلاح استفاده شود — حتی به صورت غیرمستقیم."

Ahmed، دانشجوی دانشگاه: "برای من، این درباره اعتماد است. اگر OpenAI می‌تواند این قرارداد را مخفی کند، چه چیز دیگری را مخفی می‌کند؟ Claude شفاف است. من به شفافیت اعتماد می‌کنم."

Maria، معلم: "من ChatGPT را به دانش‌آموزانم توصیه می‌کردم. اما حالا نمی‌توانم. چگونه می‌توانم به بچه‌ها بگویم از ابزاری استفاده کنند که ممکن است برای جنگ استفاده شود؟"

این نظرات یک الگوی واضح نشان می‌دهند: کاربران نه فقط به عملکرد اهمیت می‌دهند، بلکه به ارزش‌ها نیز اهمیت می‌دهند. آن‌ها می‌خواهند بدانند که ابزارهایی که استفاده می‌کنند، با اصول اخلاقی آن‌ها همسو هستند.

چه اتفاقی بعد می‌افتد؟

سؤال بزرگ این است: آیا این فرار دائمی است یا موقت؟ آیا کاربران به ChatGPT برمی‌گردند یا Claude جایگاه خود را حفظ می‌کند؟

تحلیلگران نظرات مختلفی دارند. برخی معتقدند که این یک واکنش احساسی است که با گذشت زمان فروکش می‌کند. آن‌ها استدلال می‌کنند که ChatGPT هنوز پیشرفته‌تر است و کاربران در نهایت به آن برمی‌گردند.

دیگران معتقدند که این یک تغییر دائمی است. آن‌ها می‌گویند که وقتی اعتماد شکسته می‌شود، بازگرداندن آن تقریباً غیرممکن است. و Claude حالا به اندازه کافی خوب است که کاربران دلیلی برای بازگشت نداشته باشند.

ما معتقدیم که حقیقت در جایی بین این دو است. برخی کاربران — به ویژه آن‌هایی که به عملکرد بالا نیاز دارند — احتمالاً به ChatGPT برمی‌گردند. اما بخش قابل توجهی از کاربران — به ویژه آن‌هایی که به اخلاق اهمیت می‌دهند — با Claude می‌مانند.

نتیجه؟ یک بازار دوقطبی. OpenAI برای کاربران حرفه‌ای و سازمانی که به عملکرد بالا نیاز دارند. Anthropic برای کاربران عمومی و آگاه که به اخلاق اهمیت می‌دهند.

درس‌های آموخته شده

فرار بزرگ از ChatGPT چند درس مهم برای صنعت تکنولوژی دارد:

lessons-learned
lessons-learned

۱. اخلاق یک مزیت رقابتی است: در گذشته، شرکت‌ها فکر می‌کردند اخلاق یک هزینه است. اما Anthropic ثابت کرد که اخلاق می‌تواند یک مزیت باشد. کاربران حاضرند برای اخلاق، شرکت را تغییر دهند.

۲. شفافیت مهم است: قراردادهای مخفی و استثناهای پنهان دیگر قابل قبول نیستند. کاربران می‌خواهند بدانند دقیقاً چه اتفاقی می‌افتد.

۳. اعتماد شکننده است: OpenAI سال‌ها برای ساختن اعتماد تلاش کرد. اما یک تصمیم بد می‌تواند همه آن را نابود کند.

۴. کاربران قدرت دارند: این اولین باری است که کاربران به یک شرکت تکنولوژی غول می‌گویند "نه". و این نشان می‌دهد که آن‌ها می‌توانند تغییر ایجاد کنند.

نتیجه‌گیری

خلاصه کلیدی

فرار بزرگ از ChatGPT نشان داد که عصر جدیدی در تکنولوژی آغاز شده است — عصری که در آن اخلاق به اندازه عملکرد مهم است. وقتی OpenAI با Pentagon قرارداد بست، ۲۹۵٪ افزایش حذف نصب و انتقال به Claude نشان داد که کاربران دیگر حاضر نیستند اخلاق را برای راحتی فدا کنند.

Anthropic با رد کردن قرارداد Pentagon و حفظ خطوط قرمز خود، ثابت کرد که می‌توان هم موفق بود و هم اخلاقی. این درسی است برای تمام صنعت تکنولوژی: اعتماد مهم‌ترین دارایی شماست — و وقتی آن را از دست بدهید، بازگرداندن آن تقریباً غیرممکن است.

آینده AI به شرکت‌هایی تعلق دارد که نه تنها فناوری پیشرفته دارند، بلکه اصول اخلاقی قوی نیز دارند. فرار بزرگ از ChatGPT فقط یک شورش نبود — این یک پیام بود: اخلاق دیگر اختیاری نیست.

نویسنده مقاله

مجید قربانی‌نژاد

مجید قربانی‌نژاد، طراح و تحلیل‌گر دنیای تکنولوژی و گیمینگ در TekinGame. عاشق ترکیب خلاقیت با تکنولوژی و ساده‌سازی تجربه‌های پیچیده برای کاربران. تمرکز اصلی او روی بررسی سخت‌افزار، آموزش‌های کاربردی و ساخت تجربه‌های کاربری متمایز است.

دنبال کردن نویسنده

اشتراک‌گذاری مقاله

فهرست مطالب

فرار بزرگ از ChatGPT: وقتی ۲۹۵٪ کاربران به خاطر قرارداد پنتاگون حذف کردند