💻 آخرین فرصت یادگیری برنامه‌نویسی با آفر ویژه قبل از افزایش قیمت در ۱۵ آذر ماه (🎁 به همراه یک هدیه ارزشمند )
۰ ثانیه
۰ دقیقه
۰ ساعت
۱ شیما ابراهیمی
تعداد input_dim در لایه embedding
جامعه هوش مصنوعی ایجاد شده در ۱۹ آبان ۱۴۰۱

سلام و وقت بخیر

استاد چرا تو قسمت ساخت شبکه،ما ورودی‌ها رو تو لایهinputا،(max_len) هر داکیومنت رو گذاشتیم که 1693 تا بود

اما تو لایه بعد(vacab_len,100) embedding ،درواقع vacab_len که تعداد کل کلمات توی دیتای x_train بود رو گذاشتیم؟

منظورم اینه که ما شبکه رو برای هر داکیومنت ساختیم که هر داکیومنت به شبکه داده بشه یا نه برای کل دیتای آموزشی که مجموع همه داکیومنت هاست ؟

سلام

ما شبکه را برای هر داکیومنت ساخته‌ایم متنهی embedding باید به اندازه‌ی تمامی کلمات فضا داشته باشد تا کلمات مختلف را که یکی یکی توسط هر داکیومنت به شبکه تزریق می‌شود یا کلمات دیگر قاطی نکند

بهترین پاسخ
مسعود کاویانی ۱۹ آبان ۱۴۰۱، ۲۲:۳۱