سوالات و پاسخ‌های مصاحبه‌ای هوش مصنوعی (AI)


۰


سوالات مصاحبه‌ای هوش مصنوعی همراه با پاسخ‌ها

مصاحبه‌های هوش مصنوعی همیشه چالش‌برانگیز هستند. اگر برای یک مصاحبه هوش مصنوعی آماده می‌شوید یا قصد دارید مهندس هوش مصنوعی استخدام کنید، این مجموعه سوالات و پاسخ‌های مرتبط می‌تواند خیلی مفید باشد. اطلاع داشتن از سوالاتی که ممکن است پرسیده شود یا شما بپرسید، کمک بزرگی است.


سوالات و پاسخ‌های مقدماتی هوش مصنوعی

1. هوش مصنوعی را تعریف کنید و کاربردهای آن را بگویید.

هوش مصنوعی (AI) شاخه‌ای از علوم کامپیوتر است که بر ساخت سیستم‌هایی متمرکز است که قادر به انجام کارهایی هستند که به طور معمول نیازمند هوش انسانی‌اند، مثل تشخیص گفتار، درک زبان طبیعی، تصمیم‌گیری و یادگیری. ما از AI برای ساخت برنامه‌های مختلف مانند تشخیص تصاویر و صدا، پردازش زبان طبیعی (NLP)، رباتیک و مدل‌های یادگیری ماشین مانند شبکه‌های عصبی استفاده می‌کنیم.

2. یادگیری ماشین و هوش مصنوعی چه ارتباطی دارند؟

یادگیری ماشین و هوش مصنوعی دو حوزه مرتبط اما مجزا در علوم کامپیوتر هستند. AI شامل یادگیری ماشین و روش‌های دیگر مانند سیستم‌های مبتنی بر قوانین، سیستم‌های خبره و سیستم‌های دانش‌محور است که لزوماً با داده یاد نمی‌گیرند. بسیاری از سیستم‌های پیشرفته AI مبتنی بر تکنیک‌های یادگیری ماشین هستند، زیرا این روش‌ها در حل مسائل پیچیده و مبتنی بر داده بسیار موثرند.

3. یادگیری عمیق (Deep Learning) بر چه مبنایی است؟

یادگیری عمیق زیرشاخه‌ای از یادگیری ماشین است که بر توسعه شبکه‌های عصبی مصنوعی چندلایه (deep neural networks) تمرکز دارد. این شبکه‌ها در مدل‌سازی الگوهای پیچیده و سلسله‌مراتبی داده بسیار توانمندند. یادگیری عمیق از ساختار و عملکرد مغز انسان، به‌خصوص شبکه‌های عصبی زیستی الهام گرفته است.

4. شبکه عصبی چند لایه دارد؟

شبکه‌های عصبی معمولاً از سه لایه اصلی تشکیل شده‌اند: لایه ورودی، لایه مخفی، و لایه خروجی.

5. TensorFlow چیست؟

TensorFlow یک پلتفرم متن‌باز توسعه یافته توسط گوگل است که بیشتر برای محاسبات عددی پرسرعت به‌کار می‌رود. این ابزار مجموعه‌ای از جریان‌های کاری را فراهم می‌کند تا مدل‌های یادگیری ماشین را به‌طور موثر توسعه داده و آموزش داد. TensorFlow بسیار قابل تنظیم است و به توسعه‌دهندگان کمک می‌کند معماری‌های یادگیری تجربی ایجاد کنند و به نتایج مطلوب برسند.

6. مزایای محاسبات شناختی چیست؟

محاسبات شناختی نوعی هوش مصنوعی است که فرآیندهای فکری انسان را شبیه‌سازی می‌کند. از این روش برای حل مسائلی که برای سیستم‌های سنتی دشوارند، استفاده می‌شود. برخی مزایای آن عبارتند از:

  • ترکیبی از فناوری برای درک تعاملات انسانی و ارائه پاسخ‌ها
  • اکتساب دانش از داده‌ها
  • افزایش کارایی عملیات سازمان‌ها

7. تفاوت NLP و NLU چیست؟

پردازش زبان طبیعی (NLP) شامل توسعه الگوریتم‌هایی است که به کامپیوترها امکان پردازش، تحلیل و تولید زبان انسانی را می‌دهد. این شامل وظایفی مثل تحلیل متن، تشخیص احساسات، ترجمه ماشینی، خلاصه‌سازی و نام‌گذاری موجودیت‌ها می‌شود.

در حالی که فهم زبان طبیعی (NLU) زیرمجموعه‌ای از NLP است که روی درک و تفسیر معنا از ورودی‌های زبان انسانی تمرکز دارد. NLU به کامپیوترها کمک می‌کند تا نه تنها ساختار زبان، بلکه معنی پنهان، قصد و احساس را بفهمند.

8. نمونه‌هایی از هوش مصنوعی ضعیف و قوی بگویید.

هوش مصنوعی ضعیف شامل سیستم‌های مبتنی بر قوانین و درخت تصمیم است که به ورودی مشخص وابسته‌اند. اما هوش مصنوعی قوی شامل شبکه‌های عصبی و یادگیری عمیق است که خود قادرند با یادگیری مسائل را حل کنند.

9. چرا به داده‌کاوی (Data Mining) نیاز داریم؟

داده‌کاوی فرآیند کشف الگوها، روندها و اطلاعات مفید از مجموعه داده‌های بزرگ با استفاده از الگوریتم‌ها و روش‌های آماری و یادگیری ماشین است. اهمیت آن با افزایش حجم داده‌ها و ذخیره‌سازی بیشتر شده است. داده‌کاوی به بهبود تصمیم‌گیری کمک می‌کند.

10. نام ببرید حوزه‌هایی که داده‌کاوی در آن کاربرد دارد.

بخش‌هایی مانند:

  • سلامت: پیش‌بینی نتایج بیماران، شناسایی تقلب، ارزیابی درمان‌ها، ارتباط پزشک و بیمار
  • مالی: پیش‌بینی قیمت سهام، پرداخت وام، تعیین امتیاز اعتباری
  • خرده‌فروشی: پیش‌بینی رفتار مصرف‌کننده، کشف الگوهای خرید برای بهبود خدمات مشتری

11. اجزای اصلی NLP کدامند؟

سه جزء اصلی NLP عبارتند از:

  1. فهم زبان — قابلیت تفسیر معنای متن
  2. تولید زبان — تولید متونی که از نظر گرامری صحیح و معنادار باشند
  3. پردازش زبان — انجام عملیاتی مانند توکنیزه کردن، لماتیزاسیون و برچسب‌گذاری بخش‌های گفتار

12. مخفف LSTM چیست؟

LSTM مخفف Long Short-Term Memory است، نوعی شبکه عصبی بازگشتی (RNN) که در هوش مصنوعی و پردازش زبان طبیعی کاربرد وسیعی دارد.

13. Artificial Narrow Intelligence (ANI) چیست؟

ANI یا هوش مصنوعی ضیق، به سیستم‌هایی گفته می‌شود که برای انجام یک یا چند وظیفه خاص طراحی و آموزش داده شده‌اند. این سیستم‌ها تخصصی و با دقت بالا کار می‌کنند و به آن Weak AI نیز می‌گویند.

14. data cube چیست؟

Data cube یک نمایش چندبعدی (3 بعدی یا بیشتر) داده‌ها است که به تحلیل‌ها و مدل‌سازی‌های متفاوت در داده‌های پیچیده کمک می‌کند.

15. تفاوت accuracy مدل و performance مدل چیست؟

دقت (accuracy) مدل به درصد پیش‌بینی‌های صحیح اشاره دارد، اما عملکرد (performance) شامل شاخص‌های گسترده‌تری مثل دقت، یادآوری، F1-score و AUC-ROC است که بسته به مسئله اهمیت متفاوت دارند.

16. اجزای اصلی شبکه GAN چیست؟

Generative Adversarial Network (GAN) دارای دو بخش اصلی است:

  • Generator (تولیدکننده): نویس شبکه عصبی که داده‌های مصنوعی تولید می‌کند
  • Discriminator (تشخیص‌دهنده): شبکه عصبی که تشخیص می‌دهد داده ورودی واقعی است یا تولید شده

17. ساختار داده‌های رایج در یادگیری عمیق کدامند؟

  • Tensorها: آرایه‌های چندبعدی که در فریم‌ورک‌هایی مانند TensorFlow/PyTorch استفاده می‌شوند
  • ماتریس‌ها: آرایه‌های دو بعدی
  • بردارها: آرایه‌های یک بعدی
  • آرایه‌ها: ساختارهای داده‌ای با اندازه ثابت که می‌توانند چندبعدی باشند

18. نقش لایه مخفی در شبکه عصبی چیست؟

لایه مخفی ویژگی‌های مخفی و مرتبط از داده‌های ورودی را استخراج و یاد می‌گیرد تا به لایه خروجی برای پیش‌بینی صحیح کمک کند. در واقع این لایه داده را به فرم مفیدتری تبدیل می‌کند.

19. چند مزیت شبکه‌های عصبی را ذکر کنید.

  • نیاز کمتر به آموزش آماری رسمی
  • کشف روابط غیرخطی بین متغیرها
  • قابلیت پردازش داده‌های بزرگ
  • فیلتر کردن نویز و استخراج ویژگی‌های مهم
  • سازگاری با تغییرات داده‌های ورودی

20. تفاوت stemming و lemmatization چیست؟

Stemming فرآیندی مبتنی بر قواعد است که انتهای کلمات را کوتاه می‌کند، در حالی که Lemmatization از دیکشنری بهره می‌برد تا کلمه به شکل ریشه‌اش (lemma) تبدیل شود، با دقت و معنا بیشتر.

21. انواع خلاصه‌سازی متن چه هستند؟

  • استخراجی (Extraction-based): جملات مهم را از متن اصلی برمی‌دارد؛ تغییر در متن ایجاد نمی‌کند.
  • انتزاعی (Abstraction-based): متن جدیدی می‌سازد که معنا را منتقل می‌کند و شامل ترکیب و خلاصه‌کردن اطلاعات است.

22. corpus در NLP به چه معناست؟

کاپرس (Corpus) مجموعه بزرگی از متون است که برای ساخت واژگان، آموزش مدل‌های آماری و تحلیل‌های زبانی استفاده می‌شود.

23. binarizing داده چیست؟

باینار کردن داده یعنی تبدیل ویژگی‌های آن‌ها به بردارهای صفر و یک، که عملکرد الگوریتم‌های طبقه‌بندی را بهبود می‌دهد؛ معمولاً در تشخیص اشکال و اشیاء استفاده می‌شود.

24. ادراک (Perception) چیست و انواع آن کدامند؟

ادراک فرآیند تفسیر داده‌های حسی است که سه نوع اصلی دارد:

  • بینایی: کاربرد در شناسایی چهره، تحلیل تصویر پزشکی، ردیابی حرکات انسانی
  • شنوایی: کاربرد در تولید گفتار، تشخیص صدا
  • لمسی: تعامل هوشمند با محیط از طریق حس لامسه

25. مزایا و معایب درخت تصمیم چیست؟

مزایا: ساده و قابل فهم
معایب: مستعد بیش برازش (overfitting)

26. فرایند حاشیه‌گیری (marginalization) را توضیح دهید.

حاشیه‌گیری در آمار به معنی حذف برخی متغیرها از توزیع داده‌ها برای ساده‌تر کردن تحلیل است. این کار با جمع‌زدن یا انتگرال‌گیری روی متغیرهای نامطلوب انجام می‌شود.

27. عملکرد شبکه عصبی مصنوعی چیست؟

شبکه عصبی مصنوعی (ANN) الگوریتمی است که ساختار مغز انسان را شبیه‌سازی می‌کند. وظیفه اصلی آن یادگیری از داده‌های ورودی و انجام پیش‌بینی‌ها یا طبقه‌بندی‌هایی مانند تشخیص تصویر و پردازش زبان است.

28. محاسبات شناختی و انواع آن را شرح دهید.

محاسبات شناختی زیرشاخه هوش مصنوعی است که سعی دارد تفکر انسان را تقلید کند و کارهایی مانند درک داده‌های پیچیده، یادگیری و تصمیم‌گیری خودمختار انجام دهد. اجزای مهم آن NLP، یادگیری ماشین و بینایی کامپیوتری هستند.

29. عملکرد چارچوب‌های یادگیری عمیق چیست؟

چارچوب‌های یادگیری عمیق مانند TensorFlow و PyTorch کتابخانه‌هایی هستند که توسعه، آموزش و اجرا مدل‌های عصبی پیچیده را ساده‌تر می‌کنند.

30. تفاوت تشخیص گفتار و تشخیص ویدئو چیست؟

تشخیص گفتار تبدیل صوت به متن است، در حالی که تشخیص ویدئو تحلیل فریم‌های تصویری برای شناسایی اشیاء، صحنه‌ها و حرکات است.

31. pooling layer در CNN چیست؟

Pooling لایه‌ای است که با کاهش ابعاد داده ویژگی، شبکه را در برابر تغییرات کوچک ورودی مقاوم‌تر می‌کند؛ البته باعث کاهش حجم داده‌ها می‌شود.

32. منظور از ماشین بولتزمان چیست؟

ماشین‌های بولتزمان مدل‌هایی مبتنی بر انرژی هستند که برای یادگیری توزیع‌های احتمال با شبیه‌سازی شبکه‌های نورونی متقابل استفاده می‌شوند و می‌توانند مدل‌های یادگیری عمیق بسازند.

33. گرامر منظم چیست؟

گرامر منظم مجموعه‌ای از قوانین است که نحوه تشکیل رشته‌ها از یک الفبا را مشخص می‌کند؛ برای تولید یا اعتبارسنجی رشته‌ها کاربرد دارد.

34. چگونه داده برای پروژه‌های NLP جمع‌آوری می‌شود؟

روش‌های متنوعی از جمله استخراج متن، استفاده از شبکه‌های اجتماعی، بررسی‌ها، متن‌های ضبط‌شده و وب‌اسکرپینگ.

35. عبارات منظم را به زبان ساده توضیح دهید.

عبارات منظم (Regular Expressions) الگوهایی هستند که برای جستجو، جایگزینی یا استخراج متن براساس قوانین خاص استفاده می‌شوند.

36. تفاوت NLTK و spaCy چیست؟

NLTK کتابخانه‌ای عمومی برای کارهای پایه NLP است؛ در حالی که spaCy برای وظایف پیشرفته مثل شناسایی موجودیت‌ها و پردازش سریع متون بزرگ طراحی شده و معمولاً سریع‌تر و بهینه‌تر است.

37. ابزارهای برتر NLP کدامند؟

  • NLTK: مناسب برای آموزش و ابزارهای پایه
  • spaCy: برای پردازش سریع و وظایف پیشرفته
  • Gensim: مدل‌سازی موضوع و تحلیل اسناد
  • OpenNLP: پیاده‌سازی Java متن‌باز برای پروژه‌های NLP

38. آیا چت‌بات‌ها از NLP مشتق شده‌اند؟

بله، چت‌بات‌ها با استفاده از NLP قادر به درک و تولید زبان طبیعی هستند.

39. embedding چیست و روش‌های آن کدامند؟

Embedding تکنیکی برای نمایش داده‌ها در فضای برداری است؛ تکنیک‌هایی مثل word2vec و GloVe برای معنی‌دار کردن کلمات در فضاهای برداری استفاده می‌شوند.


سوالات و پاسخ‌های متوسط هوش مصنوعی

1. چرا در شبکه‌های عصبی به توابع فعال‌سازی نیاز داریم؟

توابع فعال‌سازی غیرخطی هستند و به شبکه امکان مدل‌سازی رابطه‌های پیچیده و غیرخطی را می‌دهند؛ بدون آن‌ها شبکه صرفاً یک مدل خطی است.

2. گرادیان نزولی (Gradient Descent) چیست؟

یک الگوریتم بهینه‌سازی برای یافتن مینیمم تابع خطا به صورت تدریجی و تکراری است. در یادگیری ماشین، برای آموزش مدل‌ها و کاهش خطا کاربرد دارد.

3. هدف نرمال‌سازی داده چیست؟

استانداردسازی و مقیاس‌دهی داده‌ها برای اینکه ویژگی‌ها در مقیاس مشترک باشند تا الگوریتم‌ها بهتر و سریع‌تر یاد بگیرند.

4. چند نمونه از توابع فعال‌سازی بگویید.

  • Sigmoid: خروجی در بازه 0 تا 1
  • Tanh: خروجی در بازه -1 تا 1
  • ReLU: صفر برای مقادیر منفی، مقدار ورودی برای مقادیر مثبت

5. داده‌افزایی (Data Augmentation) چیست؟

روش افزایش تعداد داده‌های آموزشی با جهت افزایش تنوع داده‌ها، مخصوصاً برای مدل‌های یادگیری عمیق.

6. تابع Swish چیست؟

تابع فعال‌سازی‌ای نرم و مشتق‌پذیر که در برخی موارد از ReLU عملکرد بهتری دارد.

7. توضیح دهید Forward و Backpropagation چیستند.

  • Forward Propagation: عبور داده از لایه‌ها تا خروجی پیش‌بینی شود
  • Backpropagation: محاسبه گرادیان‌ها برای اصلاح وزن‌ها به کمک الگوریتم بهینه‌سازی

8. تعریف طبقه‌بندی و فواید آن چیست؟

طبقه‌بندی تخصیص ورودی‌ها به دسته‌های مشخص است. مزایا شامل تصمیم‌گیری بهتر، تشخیص الگو، شناسایی ناهنجاری و پیشنهادهای شخصی‌سازی شده است.

9. شبکه عصبی کانولوشنی (CNN) چیست؟

نوعی شبکه عصبی مناسب برای تحلیل تصاویر و داده‌های دو-بعدی که با فیلترهای کانولوشنی ویژگی‌ها را استخراج می‌کند.

10. اتوانکودر‌ها و انواعشان را شرح دهید.

اتوانکودر شبکه‌هایی برای کاهش ابعاد داده‌اند. انواعی شامل:

  • Denoising: حذف نویز از داده‌ها
  • Sparse: اجباری برای رهایی از بیش برازش
  • Undercomplete: کاهش ابعاد به شکل موثر بدون نیاز به منظم‌سازی

11. قضیه تقریب فازی (Fuzzy Approximation Theorem) چیست؟

قضیه‌ای که بیان می‌کند توابع پیوسته را می‌توان با ترکیب مجموعه‌های فازی تقریب زد.

12. اجزای اصلی LSTM کدامند؟

  • دروازه فراموشی (forget gate)
  • دروازه ورودی (input gate)
  • دروازه خروجی (output gate)

13. مزایای انتقال یادگیری (Transfer Learning)?

  • یادگیری از داده‌های کمتر
  • بهره‌گیری از دانش حوزه‌های مختلف
  • بهبود عملکرد مدل‌ها
  • استفاده از مدل‌های پیش‌آموزش داده شده
  • فاین‌تیون کردن متناسب با نیاز

14. اهمیت تابع هزینه (Loss/Cost Function) چیست؟

معیاری برای تعیین میزان خطای مدل و هدف آموزش کاهش این خطاست.

15. Epoch، Batch و Iteration چه هستند؟

  • Epoch: یکبار عبور کامل از کل داده‌های آموزش
  • Batch: بخش کوچکی از داده‌ها که در یک گام پردازش می‌شود
  • Iteration: هر بار آپدیت وزن‌ها با یک batch

16. Dropout چیست؟

متدی برای جلوگیری از بیش برازش با رها کردن تصادفی نودهای شبکه در زمان آموزش.

17. مشکل vanishing gradient چیست؟

وقتی گرادیان‌های مقداردهی وزن‌ها با زیاد شدن لایه‌ها کوچک و کم‌اثر می‌شوند که آموزش سخت می‌شود.

18. Batch Gradient Descent چگونه کار می‌کند؟

گرادیان تابع هزینه را برای یک دسته‌ی از داده‌ها محاسبه کرده و وزن‌ها را بر اساس آن به‌روزرسانی می‌کند.

19. روش یادگیری چندمدلی (Ensemble Learning) چیست؟

ترکیب چند مدل برای افزایش دقت مدل نهایی؛ گرچه هزینه محاسباتی بیشتری دارد.

20. معایب یادگیری ماشین چیست؟

  • احتمال سوگیری مدل نسبت به داده‌های نامناسب
  • نیاز به داده کافی و مناسب
  • زمان و فضای محاسباتی بالا
  • نیاز به دانش تخصصی برای توسعه

21. تحلیل احساسات (Sentimental Analysis) چیست؟

فرآیند تشخیص لحن احساسی متن‌ها، مانند مثبت یا منفی بودن دیدگاه‌ها.

22. الگوریتم‌های BFS و DFS چیست؟

الگوریتم‌های جستجو در گراف؛ BFS گام‌به‌گام سطح به سطح، DFS عمقی تا انتها دنبال می‌کند.

23. تفاوت یادگیری نظارت‌شده و غیرنظارت‌شده؟

  • یادگیری نظارت‌شده: داده‌ها برچسب‌دار هستند
  • یادگیری غیرنظارت‌شده: داده‌ها بدون برچسب و کشف ساختار

24. فرایند استخراج متن چیست؟

برداشت متن از منابع تصویری با تکنیک‌هایی مانند OCR.

25. معایب مدل‌های خطی چیست؟

  • فرض رابطه خطی ممکن است نادرست باشد
  • حساس به داده‌های ناکافی یا بی‌کیفیت
  • امکان بیش برازش یا سوگیری

26. روش‌های کاهش ابعاد چیست؟

روش‌هایی مانند تحلیل مولفه‌های اصلی (PCA)، فیلترهای واریانس کم، جنگل تصادفی و...

27. تابع هزینه چیست؟

تابعی که خطای مدل را اندازه می‌گیرد و هدف آموزش کاهش این خطا است.

28. پارامترهای ابر (هایپرپارامترهای) ANN چیست؟

  • نرخ یادگیری
  • مومنتوم
  • تعداد epoch
  • تعداد لایه مخفی
  • تعداد نرون‌ها در هر لایه
  • توابع فعال‌سازی

29. Intermediate Tensors چیست؟ آیا سشن‌ها عمر دارند؟

تنسورهای میانی که نتایج موقت محاسبات را ذخیره می‌کنند. بله، سشن‌ها در TensorFlow 1.x دارای طول عمر خاصی بودند.

30. Exploding Variable چیست؟

وقوع رشد نمایی اندازه متغیر که منجر به ناپایداری عددی می‌شود.

31. آیا فقط با رگرسیون خطی می‌توان مدل یادگیری عمیق ساخت؟

خیر، مدل‌های یادگیری عمیق به توابع غیرخطی نیاز دارند.

32. نقش Hyperparameters چیست؟

پارامترهای کنترلی که توسط کاربر تنظیم شده و رفتار مدل را تعیین می‌کنند.

33. Artificial Super Intelligence (ASI) چیست؟

هوش مصنوعی فرا-انسانی، که فراتر از هوش انسانی در همه زمینه‌هاست و هنوز تحقق نیافته است.

34. Overfitting چیست و چگونه جلوگیری می‌شود؟

زمانی که مدل جزئیات نویزی داده‌های آموزش را هم یاد می‌گیرد و عملکرد روی داده جدید افت می‌کند. روش‌های جلوگیری شامل منظم‌سازی، توقف زودهنگام و افزایش داده‌هاست.

35. نقش pipeline در استخراج اطلاعات چیست؟

توالی عملیاتی برای پردازش داده‌ها که کارایی بالا و خطاهای کمتر را فراهم می‌آورد.

36. تفاوت فرضیه فهرست کامل و فرضیه کمترین افزونگی؟

  • فهرست کامل: تمام مقادیر متغیر لیست می‌شود
  • کمترین افزونگی: تنها مقادیر مهم چندبار تکرار می‌شوند

سوالات پیشرفته هوش مصنوعی

1. مراحل الگوریتم Gradient Descent چیست؟

  1. دادن مقادیر تصادفی به وزن‌ها (x,y) و محاسبه خطا (SSE)
  2. محاسبه گرادیان تغییر خطا نسبت به وزن‌ها
  3. به‌روزرسانی وزن‌ها در راستای کاهش خطا
  4. تکرار تا کاهش قابل توجه خطا متوقف شود

2. تابع Python برای One-hot Encoding کاتگوری‌ها

کد تابع

3. تابع Python برای محاسبه Similarity کسینوسی

کد تابع

4. چگونه با داده‌های نامتعادل مقابله کنیم؟

روش‌ها: الگوریتم‌های مناسب‌تر، وزن‌دهی به کلاس‌ها، oversampling از داده اقلیت.

5. حل مشکل vanishing gradient در RNN چگونه است؟

استفاده از LSTM که شامل سه دروازه است: ورودی، فراموشی و خروجی، که کمک به انتقال اطلاعات بلندمدت می‌کند.

6. تابع Python برای نرمال‌سازی لیست به بازه 0-1

کد تابع

7. تابع Python برای مرتب‌سازی با Merge Sort

کد تابع

8. کاربرد توابع Sigmoid و Softmax چیست؟

  • Sigmoid: مناسب برای طبقه‌بندی دودویی، خروجی 0 تا 1
  • Softmax: برای طبقه‌بندی چندکلاسه، اطمینان از جمع کل خروجی‌ها برابر 1

9. تابع Python برای محاسبه Sigmoid

کد تابع

10. تابع Python برای محاسبه R-squared

کد تابع

11. تحلیل اجرایی (Pragmatic Analysis) در NLP چیست؟

فرآیندی برای فهم قصد و هدف گوینده پشت متن، که روی دانش دنیایی و کاربرد زبان تمرکز دارد.

12. تفاوت فیلترهای Collaborative و Content-based چیست؟

  • Collaborative: توصیه بر اساس سلیقه کاربران مشابه
  • Content-based: توصیه بر اساس شباهت محتوای کالاها

13. پارسینگ در NLP چگونه انجام می‌شود؟

تجزیه متن به واحدهای زبانی با روش‌های قوانین، آماری یا یادگیری ماشین برای استخراج ساختار دستوری.

14. تابع Python برای محاسبه precision و recall

کد تابع

15. Limited Memory چیست؟ مثال بزنید.

حافظه محدود به سیستمی می‌گویند که از داده‌های قبلی ذخیره شده برای تصمیم‌گیری موقت استفاده می‌کند. مثلاً خودروهای خودران داده‌های ترافیک را برای مدتی ذخیره و بهینه‌سازی می‌کنند.

16. تابع Python برای محاسبه فاصله اقلیدسی

کد تابع

17. تفاوت SGD و mini-batch چیست؟

SGD هر بار وزن‌ها را با یک نمونه تغییر می‌دهد (نوسان بالا). Mini-batch گرادیان میانگین چند نمونه را محاسبه می‌کند (تعادل بین سرعت و پایداری).

18. تابع محاسبه precision, recall و F1-score

کد تابع

19. چگونه داده را استاندارد کنیم؟

درک توزیع داده، انتخاب روش مناسب (مانند Z-score)، و پیاده‌سازی با زبان‌هایی مثل Python یا ابزارهای آماری.

20. پیاده‌سازی الگوریتم Naive Bayes در Python

کد نمونه

21. کد برای مصورسازی داده با نمودارهای تک‌متغیره

کد نمونه

22. عملکرد اطلاعات کسب شده و انتروپی در درخت تصمیم چیست؟

انتروپی میزان عدم قطعیت است. اطلاعات کسب شده (Information Gain) معیار کاهش انتروپی بعد از تقسیم داده است؛ برای انتخاب بهترین شرط در تقسیم استفاده می‌شود.

23. کد پیاده‌سازی رگرسیون Random Forest در Python

کد نمونه

24. کاربرد kernel trick چیست؟

تبدیل داده غیرخطی به فضای با ابعاد بالاتر تا بتوان آن را با مدل خطی جدا کرد؛ معمولاً در SVM کاربرد دارد.

25. کد الگوریتم K-Nearest Neighbors در Python

کد نمونه

26. ضریب جینی چطور محاسبه می‌شود؟

ضریب جینی را با استفاده از فرمولی که انتروپی درآمد و توزیع افراد را در نظر می‌گیرد محاسبه می‌کنند.

مثال مرحله‌ای برای محاسبه:

  • دسته‌بندی داده‌ها از فقیر به غنی
  • محاسبه درصد جمعیت ثروتمندتر
  • محاسبه امتیاز با فرمول
  • جمع امتیازات
  • استفاده از فرمول ضریب جینی = 1 - مجموع امتیازات


امیدوارم این سوالات و پاسخ‌ها برای آماده‌سازی شما در مصاحبه‌های هوش مصنوعی مفید بوده باشد! موفق باشید.

ماشین لرنینگ
NLP

۰


نظرات


author
نویسنده مقاله: سعید محمدی

کد با می متعهد است که بالاترین سطح کیفی آموزش را در اختیار شما بگذارد. هدف به اشتراک گذاشتن دانش فناوری اطلاعات و توسعه نرم افزار در بالاترین سطح ممکن برای درستیابی به جامعه ای توانمند و قدرتمند است. ما باور داریم هر کسی میتواند با استمرار در یادگیری برنامه نویسی چالش های خود و جهان پیرامون خود را بر طرف کند و به موفقیت های چشم گیر برسد. با ما در این مسیر همراه باشید. کد با می اجتماع حرفه ای برنامه نویسان ایرانی.

تمام حقوق این سایت متعلق به وبسایتcodebymeمیباشد.