تشخیص اخبار جعلی با استفاده از روش‌های مبتنی بر یادگیری عمیق CNN-RNN

تشخیص اخبار جعلی به کمک هوش مصنوعی

تا بحال به این موضوع  فکر کرده اید خبری که با اطمینان به آن استناد می کنید شاید دروغ محض باشد؟ چطور میتوانیم به صحت کار خبرگذاری ها مطمئن شویم؟ تشخیص اخبار فیک با هوش مصنوعی می تواند پاسخ سوالات شما باشد.با ما همراه باشید.

تشخیص اخبار فیک با هوش مصنوعی

توسعه اینترنت تأثیر مثبتی بر جامعه دارد زیرا دسترسی گسترده ای به اطلاعات فراهم می کند. در حالی که شبکه‌های اجتماعی آنلاین و چند رسانه‌ای مزایایی را در ارتباطات و فناوری ارائه می‌کنند، این نوآوری‌ها به شدت بر جنبه اجتماعی تأثیر می‌گذارند.

اخیراً به دلیل سهولت ایجاد و توزیع اطلاعات در اینترنت، انتشار اخبار جعلی بیشتر شده است. اخبار جعلی به خودی خود واقعی نیستند، اما برای هدف خاصی واقعی می شوند .

انتشار اخبار جعلی پیامدهای فاجعه بار و خطرات بالقوه ای در زمینه های سیاسی و اجتماعی دارد . بنابراین، تحقیقات در زمینه تشخیص اخبار جعلی به دلیل تأثیر انتشار اخبار جعلی در حال تشدید است.

چگونه تشخیص اخبار فیک با هوش مصنوعی امکان پذیر است؟ این مقاله به طور گسترده چندین عملکرد روش‌های یادگیری عمیق را همراه با وضعیت فعلی جاسازی کلمات در مجموعه داده‌های اخبار جعلی تجزیه و تحلیل می‌کند.

ما از جاسازی کلمات از پیش آموزش دیده مانند Word2Vec، Glove و fastText استفاده کردیم وبه این دلیل انتخاب شده‌اند که با استفاده از یک مجموعه عظیم برای تولید واژگان کافی آموزش دیده‌اند. هر جاسازی کلمه از پیش آموزش داده شده با روش های یادگیری عمیق مربوطه، یعنی CNN، Bidirectional LSTM و ResNet ترکیب می شود تا عملکرد آنها در تشخیص اخبار جعلی مشخص شود.

مشاوره رایگان مسیریادگیری هوش مصنوعی

مقالات

نام و نام خانوادگی خود را وارد کنید(ضروری)

ما همچنین به صورت تجربی نشان می‌دهیم که عملکرد یادگیری عمیق در تشخیص اخبار جعلی را می‌توان با انتخاب جاسازی‌های کلمه مناسب افزایش داد.

قبل از شروع مقاله تشخیص اخبار فیک با هوش مصنوعی از شما دعوت می کنیم با مفهوم یادگیری عمیق آشنا شوید.

همه چیز راجع به یادگیری عمیق یا Deep learning به زبان ساده و کاربردی

بخش اول: روش تحقیق در تشخیص اخبار فیک با هوش مصنوعی

این تحقیق از دو مرحله اصلی تشکیل شده است:

مرحله اول: آموزش

1- همانطور که در شکل 1 نشان داده شده است با بازیابی داده های آموزشی ذخیره شده در پایگاه داده شروع می شود

2- داده‌های آموزشی از طریق فرآیند پاکسازی داده‌ها برای پاکسازی داده‌های با کیفیت پایین می‌روند

3- داده های افزوده شده پیش پردازش شده و با استفاده از جاسازی کلمات از پیش آموزش دیده به بردارهای کلمه تبدیل می شوند

4- بردار کلمه تولید شده توسط جاسازی کلمه از پیش آموزش دیده برای آموزش مدل یادگیری عمیق استفاده می شود: CNN، Bidirectional LSTM ، و ResNet

5- مدل آموزش دیده در پایگاه داده ذخیره می شود تا در مرحله آزمایش استفاده شود

مرحله دوم: آزمایش

1- ابتدا با گرفتن داده های آزمایشی از پایگاه داده انجام می شود. داده های تست مستقیماً به همان مرحله پیش پردازش مانند مرحله آموزش بدون گذراندن مراحل پاکسازی و تقویت داده ها می روند

2- مدل آموزش داده شده قبلی از پایگاه داده گرفته شده و برای پیش بینی داده های تست از پیش پردازش شده استفاده می شود. در نهایت، نتایج پیش‌بینی نمایش داده می‌شود و برای ارزیابی عملکرد مدل استفاده می‌شود

1- پاک کردن داده

پاکسازی داده ها فرآیند تصحیح یا حذف داده های با کیفیت پایین از پایگاه داده است. پاکسازی داده ها در این مطالعه با حذف داده های بدون محتوا یا برچسب انجام شد زیرا می تواند در تجزیه و تحلیل و فرآیند تصمیم گیری تداخل ایجاد کند.

2- افزایش داده ها

افزایش داده‌ها فرآیندی است که معمولا برای ایجاد تعادل در یک مجموعه داده با ایجاد داده‌های مصنوعی با استفاده از اطلاعات موجود در آن مجموعه داده انجام می‌شود.

افزایش داده ها اغلب در فعالیت های مربوط به فرآیند یادگیری برای کاهش کلاس های عدم تعادل استفاده می شود.

این مطالعه از ترجمه برگشتی به عنوان یک روش افزایش داده استفاده می کند که در آن داده های انگلیسی به آلمانی ترجمه شده و سپس به انگلیسی ترجمه می شوند. داده‌های تازه تولید شده با داده‌های اصلی متفاوت هستند، اما همچنان همان معنی را دارند.

3- پیش پردازش داده ها

داده های افزوده شده از طریق پیش پردازش به جایی می‌روند که داده های متنی به شکل قابل فهم تری تبدیل می شوند تا فرآیند استخراج ویژگی ساده شود.

پیش پردازش شامل سه مرحله است:

حذف علائم نقطه گذاری

حذف کلید واژه

ریشه یابی یا واژه سازی

پیش پردازش انجام‌شده در این مطالعه شامل چندین مرحله بود:

فرآیند توکن‌سازی برای تسهیل پردازش.

تا کردن حروف با حروف کوچک برای هر نشانه کلمه اعمال می‌شود.

نویسه‌های غیر الفبا از نشانه حذف می‌شوند زیرا تأثیر قابل‌توجهی بر روند تجزیه و تحلیل ندارند کلماتی که در stopword گنجانده شده اند نیز برای کاهش بار محاسباتی ترسیم می شوند. 

در نهایت، واژه‌سازی برای تبدیل هر نشانه به کلمه ریشه مشترک آن انجام می‌شود.

4- جاسازی کلمه

جاسازی کلمه یا نمایش کلمه توزیع شده تکنیکی است که کلمات را در بردارهای عددی ترسیم می کند، جایی که کلماتی که معانی مشابهی دارند هنگام تجسم به یکدیگر نزدیک می شوند. این کار را می‌توان انجام داد زیرا جاسازی کلمه می‌تواند اطلاعات معنایی و نحوی یک کلمه را در مجموعه وسیعی ثبت کند .

Word2Vec  یکی از جاسازی کلمات از پیش آموزش دیده است که برای به دست آوردن نمایش برداری کلمه استفاده می شود. 

تشخیص اخبارجعلی با هوش مصنوعی

Word2Vec دو گزینه معماری، یعنی Continuous Bag of Words (CBOW) و Continuous Skip-gram را ارائه می دهد. CBOW بردار یک کلمه را بر اساس بردار بافت یا کلمات اطراف آن بدون توجه به ترتیب کلمات پیش بینی می کند، در حالی که skip-gram بردار بافت اطراف را بر اساس کلمه میانی پیش بینی می کند.

Global Vector (GloVe)  همچنین یک جاسازی کلمه از پیش آموزش دیده محبوب است که از ماتریس تعداد دفعات کلمه در یک پیکره و یک فاکتورسازی ماتریس برای به دست آوردن نمایش برداری از یک کلمه استفاده می‌کند .

GloVe با تشکیل ماتریسی از تعداد کلماتی که ابتدا از یک مجموعه وسیع تشکیل می شود کار می کند. پس از آن، یک فرآیند فاکتورسازی بر روی ماتریس انجام می شود تا یک نمایش برداری از کلمه  به دست آید.

FastText  یک جاسازی کلمه از پیش آموزش دیده است که از معماری پیشرفته CBOW Word2Vec استفاده می کند. با استفاده از الگوریتم‌های محاسباتی کارآمدتر و ترتیب کلمات، بهبود انجام شد.

FastText همچنین با استفاده از مجموعه کاراکتر n-gram اطلاعات زیرکلمه‌ای  را اضافه می‌کند، زیرا تأثیر خوبی بر بردارهایی دارد که کلماتی را نشان می‌دهند که به ندرت ظاهر می‌شوند یا غلط املایی دارند

این مطالعه به بررسی و مقایسه اثر جاسازی کلمات از پیش آموزش‌دیده، یعنی Word2Vec، GloVe و fastText بر عملکرد مدل در تشخیص اخبار جعلی می‌پردازد.

5- یادگیری عمیق

این مطالعه از روش یادگیری عمیق برای تشخیص اخبار جعلی استفاده می کند. سه روش مختلف یادگیری عمیق، یعنی CNN، Bidirectional LSTM و ResNet مورد آزمایش قرار گرفتند تا مشخص شود کدام روش بهترین عملکرد را در تشخیص اخبار جعلی دارد.

معماری CNN در این مطالعه از تحقیقات Kaliyar و همکاران اقتباس شده است و در شکل 3 قابل مشاهده است.

یک لایه ورودی با 1000 بعد به لایه جاسازی متصل است که ابعاد آن با ابعاد جاسازی کلمه از قبل آموزش دیده تعیین می شود. لایه embedding به سه لایه کانولوشن یک بعدی با اندازه هسته های مختلف متصل است، که در آن هر لایه کانولوشن نگاشت ویژگی متفاوتی را تولید می کند.

هر لایه کانولوشن برای فشرده سازی ویژگی ها و کنترل بیش از حد به لایه max-pooling متصل می شود.

یک لایه پیوسته ویژگی های به دست آمده توسط هر لایه max-pooling را ترکیب می کند.

لایه الحاقی سپس با دو لایه پیچشی و یک لایه max-pooling برای استخراج ویژگی های بیشتر متصل می شود. 

در نهایت لایه سراسری max-pooling به لایه کاملا پیوسته و لایه خروجی متصل می شود.

شکل 4 معماری Bidirectional LSTM مورد استفاده در این مطالعه را توصیف می کند، جایی که یک لایه ورودی با 1000 بعد و به دنبال آن یک لایه جاسازی وجود دارد. معماری با لایه Bidirectional LSTM ادامه می یابد، جایی که LSTM برای هر دو جهت یکسان است. علاوه بر این، لایه max-pooling جهانی، لایه کاملا پیوسته و لایه خروجی کلاس را پیش‌بینی می‌کنند.

معماری ResNet که در این مطالعه استفاده شده در شکل 5 نشان داده شده است. 

معماری ResNet با استفاده از معماری CNN در شکل 3 ساخته شده است، جایی که دو مجموعه از لایه‌های کانولوشن و لایه max-pooling با بلوک باقیمانده جایگزین شده‌اند. انتظار می‌رود افزودن این بلوک باقیمانده مقاومت معماری را در برابر شیب محو شده افزایش دهد و اطلاعاتی که قبلاً آموخته‌اید دوباره یاد گرفته شود و ماندگاری بیشتری داشته باشد.

بخش دوم: راه اندازی آزمایش تشخیص اخبار فیک به روش یادگیری عمیق

آزمایش‌ها در این مطالعه با استفاده از چهار مجموعه داده مختلف انجام شد ، یعنی مجموعه داده‌های اخبار جعلی ISO ، مجموعه داده‌های اخبار جعلی ، مجموعه داده‌های اخبار جعلی یا واقعی و تشخیص اخبار جعلی مجموعه داده.

ویژگی های هر مجموعه داده شرح داده شده در جدول 1 نشان می دهد که چهار مجموعه داده دارای مقادیر متفاوتی از داده ها هستند. این می تواند در تعیین توانایی یک مدل یادگیری عمیق برای مدیریت مقادیر زیاد یا کوچک داده مفید باشد.

تشخیص اخبار فیک با هوش مصنوعی

متأسفانه، هر مجموعه داده مراحل پاکسازی داده‌ها، تقویت داده‌ها و پیش‌پردازش داده‌ها را طی نکرده است زیرا هنوز ردیف‌های داده خالی، عدم تعادل داده‌ها، کلمات توقف باقی‌مانده و کلمات الصاق شده وجود دارد. بنابراین، فرآیند پاکسازی داده ها، تقویت داده ها و پیش پردازش داده ها ضروری است تا داده ها برای تجزیه و تحلیل بیشتر آماده شوند. مجموعه‌های داده‌ای که پاک‌سازی، افزوده‌شده و از پیش پردازش شده‌اند نیز برای عموم قابل دسترسی هستند .

آزمایش‌ها با کمک TensorFlow، NLTK، pandas، و کتابخانه‌ها و دستگاه‌های Sicit-learn انجام شد . برخی از آزمون‌های انجام شده در این مطالعه برای تعیین تأثیر بر عملکرد مدل به دست آمده، شامل آزمایش روش افزایش داده‌ها، روش بهینه‌ساز، فراپارامتر اندازه دسته‌ای و آزمایش نهایی می‌باشد.

. هر مقداردر آزمایش، بر روی چهار مجموعه داده مختلف با استفاده از سه روش یادگیری عمیق، یعنی CNN، Bidirectional LSTM ، و ResNet، همراه با یکی از سه جاسازی کلمه از پیش آموزش داده شده مانند Word2Vec، GloVe و fastText بررسی می‌شود.

فرآیند ارزیابی هر مقدار در آزمایش از تجسم در یک نمودار جعبه یا نوار استفاده می کند. روش افزایش داده ها دو مقدار یعنی داده با افزایش و داده بدون افزایش را آزمایش می کند. هفت روش تست شده در روش بهینه ساز وجود دارد: SGD، RMSprop، Adam، Adadelta، Adagrad، Adamax و Nadam. تست بعدی فراپارامتر اندازه دسته ای است که در آن پنج مقدار به ویژه 32، 64، 128، 256 و 512 مورد آزمایش قرار می گیرند.

در نهایت، آزمایشی انجام می شود که مقادیر یا روش هایی را که از آزمایش های قبلی انتخاب شده اند ترکیب می کند تا عملکرد نهایی مدل یادگیری عمیق  تعیین شود.

بخش سوم : نتیجه و بحث

1- افزایش داده ها

اولین آزمایش ، برای تعیین اثرات فرآیند افزایش داده ها انجام شد. شکل1 نشان می‌دهد داده‌های افزوده شده دارای میانگین بالاتر و اندازه‌های جعبه کوچک‌تر هستند که نشان‌دهنده نتایج متمرکزتر و سازگارتر است.

افزایش داده ها

2- تنظیم فراپارامتر

فرآیند تنظیم فراپارامتر با آزمایش دو مقدار، یعنی بهینه ساز و اندازه دسته ای، برای بهبود عملکرد مدل یادگیری عمیق انجام می شود. شکل 2 نتایج آزمایش روش بهینه ساز را نشان می دهد.

تشخیص اخبار فیک با هوش مصنوعی

Adamax به دلیل بالاترین عملکرد با تلفات کمتر به عنوان روش بهینه‌ساز برای آزمایش نهایی استفاده می‌شود. نتایج آزمایش اندازه دسته ای در شکل 3 نشان می دهد که مقدار اندازه دسته 64 با به دست آوردن بالاترین مقدار در مقادیر حداقل، چارک اول، میانه، میانگین و حداکثر بهینه ترین مقدار است.

تنظیم فراپارامتر

فرآیند آزمایش نهایی شامل چهار مجموعه داده مختلف است. این بر روی هر یک از معماری های یادگیری عمیق که با استفاده از فراپارامتر انتخاب شده کامپایل شده و سپس با جاسازی کلمه از پیش آموزش دیده ترکیب شده است، انجام می شود. معیارهای ارزیابی، مانند دقت،درستی، یادآوری، امتیاز F1 و ماتریس سردرگمی، برای ارزیابی عملکرد مدل استفاده می‌شوند.

3- مجموعه داده اخبار جعلی ISOT

مجموعه داده اخبار جعلی ISOT اولین مجموعه داده مورد استفاده در آزمایش نهایی است. نتایج آزمایش در مجموعه داده اخبار جعلی ISOT  در شکل 4 نمایش داده شده‌است.

تشخیص اخبارجعلی با هوش مصنوعی

. بر اساس شکل 4(a)، فرآیند آموزش با استفاده از مجموعه داده اخبار جعلی ISOT  در CNN سریع ترین و Bidirectional LSTM طولانی ترین است. در عملکرد آزمایشی نشان داده شده در شکل 4(b)، Bidirectional LSTM از دو مدل دیگر بهتر عمل می کند. خلاصه ای از نتایج پیش بینی هر مدل به شکل یک ماتریس سردرگمی در شکل 4 (c)، (d) و (e) نشان داده شده است، که در آن هر مدل بیشتر اخبار را به عنوان اخبار جعلی پیش بینی می کند.

مقایسه نتایج آزمایش در مجموعه داده‌های اخبار جعلی ISOT  که در جدول 2 توضیح داده شده است نشان می‌دهد که مدل‌های پیشنهادی بهترازسایرمطالعات عمل کردند.

مجموعه داده اخبار جعلی ISOT

مدل Bidirectional LSTM + GloVe با دقت 99.95 درصد، دقت، فراخوانی و امتیاز F1. مدل ResNet + GloVe با عملکرد 99.91 درصد برای درستی و 99.90 درصد برای دقت، یادآوری و امتیاز F1 دنبال شد. در نهایت، مدل CNN + fastText دارای افزایش عملکرد 99.89٪ درستی و 99.88٪ برای دقت، یادآوری و امتیاز F1 است.

4- مجموعه داده اخبار جعلی

دومین مجموعه داده مورد استفاده در آزمایش نهایی، مجموعه داده اخبار جعلی  بود، که نتایج در شکل 5 و جدول 3 نشان داده شده‌است. باتوجه به شکل 5a)) فرایند آموزش در CNN سریع‌ترین و Bidirectional LSTM طولانی‌ترین است.

تشخیص اخبار فیک به روش یادگیری عمیق

Bidirectional LSTM همچنان با به دست آوردن بالاترین مقدار حداقل تا حداکثر در عملکرد تست نشان داده شده در شکل 5(b) از دو مدل دیگر بهتر عمل می کند. ماتریس سردرگمی LSTM دوطرفه در شکل 5(d) همچنین دارای مثبت کاذب جزئی (FP) و منفی کاذب (FN) در مقایسه با ماتریس سردرگمی مدل دیگر در شکل 5(c) و (e) است.

مقایسه نتایج در مجموعه داده‌های اخبار جعلی  شرح داده شده در جدول 3 نشان می‌دهد که مدل‌های پیشنهادی با Bidirectional LSTM عملکرد بهتری از سایر مطالعات داشتند. نتایج آزمایش نشان می دهد که مدل Bidirectional LSTM + fastText بهترین عملکرد را با دقت و امتیازF1 98.65% ،درستی 98.64٪ و فراخوانی 98.66٪ ارائه می دهد.

مدل ResNet + fastText عملکرد 98.11% را برای  دقت و درستی، 98.09% یادآوری و 98.1% امتیاز F1 را به دست می‌آورد. آخرین مدل پیشنهادی دارای 96.92٪، 96.86٪، 96.98٪، و 96.91٪ دقت، درستی،فراخوانی، و امتیاز F1، به ترتیب، متعلق به CNN + مدل fastText است.

5- مجموعه داده اخبار جعلی یا واقعی

مجموعه داده اخبار جعلی یا واقعی  سومین مجموعه داده مورد استفاده در آزمایش نهایی است. بر اساس شکل 6(a)، فرآیند آموزش درCNN سریع‌ترین و Bidirectional LSTM طولانی‌ترین است.

تشخیص اخبار فیک با هوش مصنوعی

در عملکرد آزمایشی نشان‌داده‌شده در شکل6(b)، Bidirectional LSTM بالاترین را در مقدار حداقل تا حداکثر با FP کمترو FN نشان‌داده‌شده در شکل6(d) درمقایسه با ماتریس سردرگمی مدل دیگر در شکل 6 (e,c) به دست می‌آورد.

جدول 4 نشان می‌دهد که مدل‌های پیشنهادی با CNN و Bidirectional LSTM عملکرد بهتری از سایر مطالعات داشتند.

تشخیص اخبار فیک به روش یادگیری عمیق

مدل Bidirectional LSTM + GloVe دارای بالاترین عملکرد با دقت 94.6%، درستی 94.58%، فراخوانی 94.64% و امتیازF1 94.59%است. این عملکرد توسط مدل CNN + fastText با دقت،درستی ، یادآوری و مقادیرامتیازF1 91.9%، 91.88٪، 91.93٪ و 91.89٪ دنبال شد. کمترین عملکرد توسط مدل ResNet + fastText با دقت، درستی ،یادآوری و مقادیر امتیازF1 88.88% ، 89.36٪، 89.11٪ و 88.88٪ به دست آمد.

6- مجموعه داده تشخیص اخبار جعلی

آخرین مجموعه داده مورد استفاده در آزمایش نهایی، مجموعه داده تشخیص اخبار جعلی  بود. نتایج آزمایش در شکل 7 نشان داده شده است

مجموعه داده تشخیص اخبار جعلی

با توجه به شکل 7(b)فرآیند آموزش در CNN سریع ترین و Bidirectional LSTM طولانی ترین است. در عملکرد آزمایشی نشان داده شده در شکل 7(b)، Bidirectional LSTM همچنان بیشترین مقدار را در حداقل تا حداکثر به دست می آورد. ماتریس سردرگمی Bidirectional LSTM در شکل 7(d) همچنین دارای FP و FN کمتری در مقایسه با ماتریس سردرگمی مدل دیگر در شکل 7(c) و (e) است.

مقایسه نتایج آزمایش در مجموعه داده‌های تشخیص اخبار جعلی  که در جدول 5 توضیح داده شده است، نشان می‌دهد که مدل‌های پیشنهادی با ResNet و Bidirectional LSTM عملکرد بهتری از سایر مطالعات  داشتند.

تشخیص اخبار فیک با هوش مصنوعی

مدل Bidirectional LSTM + fastText با عملکرد 99.24% دقت، 99.19% درستی، 99.26% فراخوانی و 99.23% امتیاز F1 مجدداً از سایر مدل ها بهتر عمل می کند. نتایج آزمایش همچنین نشان می دهد که ResNet + GloVe با عملکرد 98.99% دقت، 99.05% درستی، 98.89% فراخوان و 98.97% امتیاز F1 در جایگاه دوم قرار دارد. CNN + GloVe با مقدار دقت 98.24٪، 98.32٪ درستی، 98.09٪ یادآوری، و امتیازF1 98.2% عمل می‌کند.

جدول 6 نمونه‌هایی از اخبار جعلی و پیش‌بینی هر مدل نسبت به اخبار را نشان می‌دهد. اولین خبر دارای محتوای طولانی است و از یک اسم مناسب استفاده می کند، Bidirectional LSTM و ResNet با موفقیت اخبار را به عنوان اخبار جعلی طبقه بندی کردند، اما CNN به دلیل طولانی بودن محتوا و اسم ناموفق بود زیرا اخبار جعلی تمایل به محتوای کوتاه دارند و از یک اسم مشترک استفاده می کنند.

جدول 6

خبر دوم نیز دارای محتوای طولانی و استفاده از اسامی خاص، گفتار گزارش شده و جملات تحریک آمیز است. CNN و Bidirectional LSTM با موفقیت این خبر را به دلیل جمله تحریک آمیز به عنوان اخبار جعلی طبقه بندی کردند، اما ResNet شکست خورد.

آخرین خبر دارای محتوای کوتاه، لینک خارجی و اسامی رایج است تا هر مدل به راحتی بتواند اخبار را به عنوان اخبار جعلی طبقه بندی کند

این مطالعه یک فرآیند افزایش داده را برای هر مجموعه داده با استفاده از روش ترجمه برگشتی برای کاهش عدم تعادل کلاس اعمال می کند. آزمایش‌هایی برای تعیین تأثیر افزایش داده‌ها بر عملکرد مدل حاصل انجام می‌شود. نتایج آزمون نشان می دهد که افزایش داده ها به ویژه در بهبود ثبات عملکرد مدل تأثیر مثبتی دارد.

چندین روش یادگیری عمیق مانند CNN، Bidirectional LSTM و ResNet نیز در این مطالعه با استفاده از چهار مجموعه داده مختلف مورد ارزیابی قرار گرفتند.

تشخیص اخبار جعلی با هوش مصنوعی ؛چگونه مجهز شویم؟

در این مقاله آموختیم که هر روش یادگیری عمیق با جاسازی کلمات از پیش آموزش دیده، یعنی Word2Vec، GloVe و fastText ترکیب شده است. بر اساس نتایج آزمایش، Bidirectional LSTM از CNN و ResNet در تمام مجموعه داده های آزمایشی بهتر عمل کرد. GloVe و fastText نیز نتایج خوبی به دست آوردند زیرا هرکدام می‌توانند در دو مجموعه داده متفاوت برتری داشته باشند.

ما می توانیم سریعتر و راحت تر از چیزی که فکر می کنیم در زمینه هوش مصنوعی پیشرفت کنیم. مجموعه اسمارتک با استفاده از علم اساتید مطرح این حوزه بستر مناسبی را برای آموزش و مهارت شما تدارک دیده است.

دوره جعبه ابزار هوش مصنوعی

معرفی دوره چرا این دوره؟ پس از پایان دوره چرا اسمارتک سوالات متداول ثبت نام دوره معرفی دوره جعبه ابزار…

از 2,900,000تومان

دوره جامع هوش مصنوعی

معرفی دوره چرا این دوره؟ پس از پایان دوره چرا اسمارتک سوالات متداول ثبت نام معرفی دوره هوش مصنوعی دیگر…

از 5,000,000تومان

دوره کسب درآمد از هوش مصنوعی

معرفی دوره چرا این دوره؟ پس از پایان دوره چرا اسمارتک سوالات متداول ثبت نام معرفی دوره همانطور که یادگیری…

از 3,510,000تومان

دوره پردازش زبان طبیعی

معرفی دوره چرا این دوره؟ پس از پایان دوره چرا اسمارتک سوالات متداول ثبت نام معرفی دوره ما انسان ها…

از 2,590,000تومان

دوره بینایی ماشین

معرفی دوره چرا این دوره؟ پس از پایان دوره چرا اسمارتک سوالات متداول ثبت نام معرفی دوره ما انسان ها…

از 2,590,000تومان

دوره یادگیری عمیق

معرفی دوره چرا این دوره؟ پس از پایان دوره چرا اسمارتک سوالات متداول ثبت نام معرفی دوره یادگیری عمیق زیرشاخه‌ای…

از 1,980,000تومان

دوره یادگیری ماشین

معرفی دوره چرا این دوره؟ پس از پایان دوره چرا اسمارتک سوالات متداول ثبت نام معرفی دوره اگر بخواهیم به…

از 3,980,000تومان

دوره پایتون و ریاضیات هوش مصنوعی

معرفی دوره چرا این دوره؟ پس از پایان دوره چرا اسمارتک سوالات متداول ثبت نام معرفی دوره این دوره 30…

از 2,980,000تومان
وبینار هوش مصنوعی و هوش طبیعی: فرصت ها و چالش ها
60%
تخفیف

وبینار هوش مصنوعی و هوش طبیعی

هوش مصنوعی و هوش طبیعی: یه عالمه فرصت و چالش!
همیشه دوست داشتی بدونی هوش مصنوعی چیه و چطوری کار می‌کنه؟تو این وبینار، با هوش مصنوعی و هوش طبیعی آشنا می‌شی و می‌فهمی که چه جوری می‌تونن زندگی و کارمون رو تغییر بدن.از فرصت‌های جذاب هوش مصنوعی می‌شنوی و با چالش‌های پیش روی اون آشنا می‌شی.پس یه فرصت به خودت بده و تو این وبینار شرکت کن!مطمئنم که پشیمون نمی‌شی

قیمت اصلی: 250,000تومان بود.قیمت فعلی: 100,000تومان.

مینی دوره پایتون

دوره کوتاه پایتون به صورت مختصر ولی مفید به مهم ترین دستورات زبان برنامه نویسی پایتون ویژه افرادی طراحی شده است که به طور سریع می خواهند نسبت به این زبان برنامه نویسی آشنایی پیدا کنند و بتوانند تصمیم درستی مبنی بر ورود به دنیای برنامه نویسی پایتون بگیرند.
500,000تومان

منبع

پیشنهاد مطالعه

راهنمای مقاله