مطالب مرتبط با کلیدواژه
۶۱.
۶۲.
۶۳.
۶۴.
۶۵.
۶۶.
۶۷.
۶۸.
۶۹.
۷۰.
۷۱.
۷۲.
۷۳.
۷۴.
۷۵.
۷۶.
۷۷.
یادگیری عمیق
حوزههای تخصصی:
فناوری های شهر هوشمند عنصر مهمی برای مدیریت مؤثر صنعتی شدن سریع جهان امروزی هستند، زیرا می توانند به رفع مشکلات اقتصادی و زیست محیطی ناشی از افزایش جمعیت شهری کمک کنند. شهرهای هوشمند زیرساخت های سنتی و خدمات عمومی را با فناوری ادغام می کنند تا سیستمی کارآمدتر، پایدارتر و قابل دسترس تر ایجاد کنند و ضمن اینکه نیازهای ساکنان شهر را برآورده می کنند، درک سنتی مدیریت شهر را نیز متحول می کنند. سیستم های حمل و نقل هوشمند، که از اجزای کلیدی شهرهای هوشمند به شمار می آیند، برای بهبود ایمنی سیستم حمل و نقل، کاهش اثرات زیست محیطی، ترویج توسعه حمل و نقل پایدار و افزایش بهره وری، توسعه یافته اند. این سیستم ها راه حل های مدرنی را برای مشکلات مربوط به حمل ونقل، از جمله ترافیک و تصادفات ارائه می دهند و با استفاده از داده های جمع آوری شده از زیرساخت ها، شبکه ها و وسایل نقلیه، به کارآمدی سیستم حمل و نقل و تضمین ایمنی شهروندان کمک می کنند. سیستم حمل و نقل هوشمند به عنوان سیستم یکپارچه مدیریت حمل ونقل، متشکل از ارتباطات پیشرفته، پردازش اطلاعات و فناوری های مدیریت ترافیک، می تواند داده های بلادرنگ جمع آوری شده از منابع ناهمگن را بلافاصله پردازش کرده و آن ها را برای تسهیل تصمیم گیری موثر تجزیه و تحلیل کند. بینایی ماشین یکی از برجسته ترین زیرشاخه های کاربردی هوش مصنوعی است که سیستم ها را قادر می سازد تا اطلاعات معنا داری را از تصاویر دیجیتال و سایر ورودی های بصری استخراج کنند و همچنین بر اساس این اطلاعات تصمیم گیری و عمل کنند. بینایی ماشین، که بر پایه یادگیری ماشین از شبکه های عصبی عمیق استفاده می کند، راه حل هایی را ارائه می کند که می توانند در فرایند خودکارسازی سیستم های حمل و نقل و افزایش سطح ایمنی آن، به کار گرفته شوند. قابل تصور است که معماری های وسایل نقلیه خودران و مدیریت هوشمند ترافیک در شهرهای هوشمند تسلط خواهند یافت و سیستم های حمل ونقل را متحول خواهند کرد و در این راستا توسعه تکنیک های بینایی ماشین نقش مهمی ایفا خواهند کرد. در این مقاله میزان اثربخشی روش های یادگیری عمیق مبتنی بر بینایی ماشین در کاربردهای مدیریت ترافیک شامل تشخیص و شناسایی خودکار پلاک خودرو، تشخیص و شناسایی علائم ترافیکی، تشخیص و طبقه بندی خودرو، تشخیص عابر پیاده و تشخیص خطوط جاده مورد بررسی قرارگرفته است و لذا با جمع آوری تحقیقات از منابع مختلف و بررسی معماری های مؤثر شبکه های عصبی عمیق همراه با تعیین معیارهای ارزیابی عملکرد هر یک، نشان داده شده است که چگونه به کارگیری تکنیک های بینایی ماشین در مدیریت ترافیک، می تواند در هوشمندتر شدن سیستم های حمل ونقل در شهرهای هوشمند تأثیر به سزایی داشته باشد.
مؤلفه های فضایی محیط فیزیکی و نحوه اثرگذاری آنها بر یادگیری عمیق (مرور سیستماتیک)(مقاله علمی وزارت علوم)
منبع:
باغ نظر سال ۲۲ اردیبهشت ۱۴۰۴ شماره ۱۴۳
83 - 102
حوزههای تخصصی:
بیان مسئله: در این پژوهش به منظور بررسی نحوه اثرگذاری محیط فیزیکی بر یادگیری، رویکرد یادگیری عمیق اتخاذ شده است. از منظری شناختی، یادگیری عمیق به دامنه گسترده ای از موضوعات مرتبط با یادگیری از تفکر تا عمل می پردازد؛ ازاین رو، نقش قابل توجهی در میان رویکردهای جدید یادگیری داشته و منجر به پیوند میان مطالعات گوناگون شناختی و علوم اعصاب درباره یادگیری شده است. هدف پژوهش: این پژوهش با هدف بررسی ارتباط دو حوزه علوم شناختی و طراحی فضا های یادگیری، به شناسایی مؤلفه های فضایی محیط فیزیکی و تحلیل نحوه اثرگذاری آنها بر یادگیری عمیق پرداخته است. به همین منظور پرسش پژوهش عبارت است از: مؤلفه های فضایی اثرگذار بر یادگیری عمیق کدامند و به چه نحوی بر بهبود یادگیری عمیق اثر می گذارند؟ روش پژوهش: در این پژوهش ابتدا به منظور نزدیک شدن به موضوع یادگیری عمیق و استخراج مؤلفه های مرتبط با محیط فیزیکی، با روشی اکتشافی به تحلیل ادبیات موضوع و مبانی نظری پرداخته شد و سپس با روش مرورسیستماتیک مؤلفه های فضایی محیط فیزیکی شناسایی و دسته بندی شدند و با روش گلوله برفی از میان پژوهش های انتخابی تکمیل و معرفی شدند. نتیجه گیری: اثرگذاری مؤلفه های فضایی بر یادگیری عمیق از طریق انواع درگیری و حیطه های عملکردی ذهن قابل بررسی است که بیانگر نحوه اثرگذاری مستقیم از طریق فرایندهای انواع درگیری شناختی، هیجانی و رفتاری و همچنین اثرگذاری غیرمستقیم از طریق حیطه های عملکردی ذهن شامل ادارک، شناخت، هیجان و عمل است. همچنین مؤلفه های فضایی در دو بُعد عملکردی و کالبدی شناسایی شدند که مؤلفه های عملکردی به دلیل نقششان در فعالیت های یادگیری در پژوهش ها بیشتر کاربرد داشته اند. نحوه اثرگذاری مؤلفه های بُعد عملکردی در ارتباط با انواع درگیری بیشتر بررسی شده و مؤلفه های بُعد کالبدی نیز از نظر اثرگذاری بر حیطه های عملکردی ذهن بیشتر اهمیت داشته اند.
بررسی دستکاری قیمت ها در بازار بورس ایران با استفاده از مدل ترکیبی خودرمزگذار متغیر-حافظه کوتاه مدت طولانی(مقاله علمی وزارت علوم)
منبع:
چشم انداز مدیریت مالی سال ۱۴ تابستان ۱۴۰۳ شماره ۴۶
133 - 161
حوزههای تخصصی:
هدف: بازار سرمایه به عنوان یکی از اصلی ترین بخش های اقتصادی کشورها، نقش با اهمیتی در توسعه و گسترش فعالیت اقتصادی دارد. با توسعه تکنولوژی و الگوریتم های معاملاتی پیچیده، دستکاری سهام با سهولت بیشتری رخ داده و این امر سبب می شود تا استفاده از ابزارهای مانند هوش مصنوعی و یادگیری عمیق برای شناسایی دستکاری توسط نهادهای ناظر ناگزیر باشد. هدف از این پژوهش، شناسایی دستکاری سهام در بازار بورس ایران است. برای این کار از اطلاعات 73 سهم از 19 صنعت پذیرش شده در بورس طی 1398 الی 1402، روزهای معاملاتی تقریبی 71،300 استفاده شده است.روش: شناسایی دستکاری در معاملات سهام به دلیل همبستگی زمانی داده های قیمت سهام و پویا بودن آن، چالش مهمی را به وجود می آورد. این چالش با در دسترس نبودن داده های برچسب گذاری شده نیز تشدید می شود. از این رو باتوجه به عدم اعلام سهام دستکاری شده توسط ناظر بورس در بازار ایران، شناسایی داده ها: 1) آزمون های آماری مانند بازدهی غیرنرمال، سهام دستکاری شده و تاریخ دقیق دستکاری مشخص شده است. 2) داده های تصادفی با شبیه سازی الگوی دستکاری سهم، به سری زمانی سهامی که با اطمینان بالایی در آن ها دستکاری رخ نداده (پرسشنامه خبرگان)، تزریق شده است. در گام بعدی با استفاده از ترکیب مدل های خودرمزگذار متغیر و حافظه کوتاه مدت طولانی، الگوریتم VAE- LSTM برای مقایسه با برخی مدل ها یادگیری ماشین از قبیل درخت تصمیم، جنگل تصادفی، رگرسیون لجستیک و.. طراحی گردیده که احتمال دستکاری سهم را محاسبه می نماید.یافته ها: پس از اجرای مدل های یادگیری عمیق شاخص های دقت و بازخوانی و F1 و F2 محاسبه شد. به دلیل اینکه در بازار سرمایه دسته بندی سهام دستکاری شده و نشده از اهمیت یکسانی برخوردار نیست، برای رتبه بندی مدل ها از شاخص ارزیابی عملکردی F2 استفاده شده است. به ترتیب مدل های VAE-LSTM، درخت تصمیم، جنگل تصادفی، شبکه عصبی چندلایه، ماشین بردار پشتیبان، رگرسیون لجستیک عملکردی بهتری از خود نشان دادند. مقدار حدودی F2 مدل های مذکور به ترتیب : 72درصد، 69درصد، 50درصد، 41درصد، 40درصد و 26درصد است.نتیجه گیری: در نهایت مدل پیشنهاد شده براساس شاخص ارزیابی عملکرد F2 نسبت به سایر مدل ها توانایی بهتری در شناسایی دستکاری از خود نشان داده است. ذکر این نکته ضروری است که سایر مدل های یادگیری ماشین استفاده شده در این پژوهش نیز عملکرد مناسبی به خصوص در شاخص ارزیابی دقت داشته اما متأسفانه از نظر شاخص عملکردی بازخوانی که مهم تر می باشد، عملکرد ضعیف تری داشته اند. پس از تعیین مدل پیشنهادی به عنوان مدل برگزیده، براساس شاخص کل بورس تهران، دوره صعودی بازار سرمایه را در بازه زمانی 01/12/1398 تا 31/05/1399، دوره نزولی بازار سرمایه را در بازه زمانی 21/05/1399 تا 20/08/1399 و سال 1400 را به عنوان دوره تعادل بازار سرمایه در نظر گرفته ایم که مطابق با انتظار، احتمال دستکاری به ترتیب در بازارهای صعودی، متعادل و نزولی بیشتر است.این نتایج به طور کلی با سایر مطالعات پیشین نیز هم سو می باشد.
انتخاب پرتفوی مبتنی بر شبکه عصبی مصنوعی با استفاده از شبکه یادگیری عمیق در بورس اوراق بهادار تهران
منبع:
طالعات راهبردی مالی و بانکی دوره ۲ پاییز ۱۴۰۳ شماره ۳
220 - 231
حوزههای تخصصی:
هدف: مسایل بهینه سازی یکی از زمینه های جالب، مهم و پرطرفدار در ریاضیات مالی هستند. مدل بهتر بهینه سازی سبد سهام می تواند به سرمایه گذاران کمک کند تا سود پایدارتری کسب کنند. ادبیات موجود نشان می دهد که عملکرد استراتژی های سنتی پرتفوی میانگین-واریانس مناسب نیست. برای پرداختن به این موضوع، در این مطالعه از شبکه عصبی پرسپترون چندلایه و شبکه عصبی کانولوشن برای پیش بینی جهت آتی قیمت سهام استفاده شده است.روش شناسی پژوهش: دقت پیش بینی این دو روش با یکدیگر مقایسه می شود و خروجی های هر روشی که دارای دقت بالاتری بود، وارد مدل پیشنهادی می گردند. سپس با در اختیار داشتن جهت آتی قیمت سهام، یک طرح انتخاب سهام کارآمد برای سرمایه گذاران پیشنهاد می دهیم. همچنین یک آزمون بر روی طرح انتخاب سهام پیشنهادی و استراتژی های سرمایه گذاری انجام می دهیم که در آن اجزای شاخص بورس اوراق بهادار تهران به عنوان نمونه های آزمایشی انتخاب می شوند.یافته ها: نتایج تجربی نشان می دهد که طرح انتخاب سهام پیشنهادی می تواند به طور موثر عملکرد همه استراتژی های سرمایه گذاری را بهبود بخشد. علاوه بر این، استراتژی سرمایه گذاری پیشنهادی در مقایسه با استراتژی سرمایه گذاری حداقل واریانس سراسری سنتی عملکرد بهتری دارد.اصالت/ارزش افزوده علمی: این پژوهش با ارایه چارچوبی نوآورانه برای انتخاب پرتفوی مبتنی بر شبکه های یادگیری عمیق، نقشی کلیدی در افزایش کارایی سرمایه گذاری، مدیریت ریسک و بهبود تصمیم گیری در بازار سرمایه ایران ایفا می کند و الگویی پیشرفته برای سایر بازارهای مشابه فراهم می نماید.
هوش مصنوعی و رعایت حقوق بشر کودکان(مقاله علمی وزارت علوم)
منبع:
حقوق فناوری های نوین دوره ۶ بهار و تابستان ۱۴۰۴ شماره ۱۱
97 - 113
حوزههای تخصصی:
انتظار می رود فنّاوری های یادگیری ماشین به طور فزاینده ای در زندگی روزمره مردم تأثیر بگذارد. نسل بعدی کودکان، بیشترین تأثیر را از این فنّاوری خواهند داشت؛ زیرا آن ها در عصری از داده های بزرگ و سیستم های ماشینی متولد و بزرگ خواهند شد که تصمیمات مربوط به زندگی شان از تحصیل، دسترسی به اعتبار و فرصت های شغلی و بسیاری از موارد دیگر را تحت تأثیر قرار خواهد داد. در این مقاله، به بررسی تأثیرات هوش مصنوعی در حقوق بشر کودکان پرداخته و سعی شده است راهکارهایی برای حفاظت از حقوق کودکان در دنیای پویای فنّاوری و هوش مصنوعی ارائه شود. همچنین تأثیر و تعامل با حقوق بشر و به ویژه کودکان درمورد حق آموزش و رعایت حریم خصوصی، آزادی بیان و منع تبعیض مسائل مهمی است که متولیان اصلی از جمله شرکت ها، والدین و دولت ها باید به آن به طور ویژه بپردازند. تعیین محدودیت زمانی، نظارت والدین، فیلترینگ محتوا،آگاه سازی و آموزش ودرنهایت ارتقای الگوریتم ها و سیستم های هوش مصنوعی از جمله تعهدات شرکت ها و والدین و دولت هاست.
پیش بینی ریزش مشتریان بانک با استفاده از یادگیری ماشین(مقاله علمی وزارت علوم)
منبع:
تحقیقات مالی دوره ۲۷ تابستان ۱۴۰۴ شماره ۲
218 - 245
حوزههای تخصصی:
هدف: در بازارهای رقابتی، شرکت ها روی برقراری روابط بلندمدت با مشتریان و تقویت وفاداری تمرکز دارند. به علت هزینه های سنگین جذب مشتری جدید، کسب وکارها روی نگهداری مشتریان موجود تمرکز می کنند. پیش بینی مشتریانی که احتمال روی گردانی آن ها در آینده وجود دارد، بخش مهمی از راهبرد حفظ مشتری است. در این مقاله پیش بینی ریزش مشتری در صنعت بانکداری، روی دادگان واقعی مشتریان یکی از بانک های بزرگ ایران انجام شده است. روش: در صنعت بانکداری، کاهش شدید میانگین مانده مؤثر یک مشتری در یک بازه زمانی نسبت به بازه زمانی قبلی، به عنوان ریزش مشتری در نظر گرفته می شود. در این مقاله، ابتدا با پردازش حجم زیادی از تراکنش های بانکی در یک بازه زمانی مشخص، ویژگی های رفتاری متفاوت در سطوح مختلف برای مشتریان به دست آمد؛ سپس برای پیش بینی ریزش، از الگوریتم های پُراستفاده در یادگیری ماشین و روش های یادگیری جمعی استفاده شد. در ادامه، با استفاده از روش های یادگیری عمیق و واحدهای نوین آن، معماری مدل مدنظر ارائه شد. در نهایت، با انجام آزمایش های جامع، عملکرد روش های نام برده بررسی شد. یافته ها: این پژوهش در یکی از بانک های بزرگ ایران اجرا شد و آزمایش ها روی دادگان واقعی مشتریان بانک صورت پذیرفت. در این آزمایش ها، از اطلاعات جمعیت شناختی و رفتار گذشته مشتریان بهره گرفته شد؛ اما از اطلاعات شخصی افراد استفاده نشد تا حریم خصوصی مشتریان حفظ شود. در آزمایش های صورت گرفته، پیش بینی ریزش مشتری روی بازه زمانی یک ماهه انجام گرفت. بدین ترتیب دو بازه یک ماهه متوالی مدنظر قرار گرفت و ویژگی های رفتاری مشتریان، از بازه زمانی اول استخراج شد. متغیر هدف نیز از مقایسه میانگین مانده مؤثر در بازه های زمانی اول و دوم به دست آمد. در صورتی که میانگین مانده مؤثر یک مشتری، در بازه دوم نسبت به بازه اول با بیش از ۷۰درصد کاهش همراه بود، به عنوان ریزش در نظر گرفته شد. در نتایج به دست آمده الگوریتم های یادگیری جمعی و همچنین مدل های عمیق ارائه شده، عملکرد بهتری را نسبت به مدل های مبنا نشان دادند. افزایش اندازه مجموعه آموزش در عملکرد بهتر مدل ها مؤثر بود. مدل تقویت گرادیان با 8984/0 بیشترین مساحت زیر منحنی مشخصه عامل گیرنده نسبت به مجموعه اعتبارسنجی را به دست آورد. نتیجه گیری: استخراج ویژگی های رفتاری از تراکنش های بانکی مشتریان و استفاده از روش های یادگیری جمعی و همچنین مدل های ارائه شده مبتنی بر یادگیری عمیق، در پیش بینی ریزش مشتری مؤثرند. پس از تحلیل رفتار و شناسایی مشتریان در شرف روی گردانی، پیشنهادهایی برای جلوگیری از ریزش و حفظ مشتری ارائه شد. برای نمونه، تفکیک مشتریان بر اساس سن، شغل، تحصیلات و غیره به منظور ارائه خدمات و تولید محصولات بانکی بر این مبنا، ایجاد تنوع در خدمات موجود، ارائه خدمات مورد نیاز مشتریان از طریق بسترهای مجازی و در صورت نیاز در محل فعالیت و زندگی مشتریان، تسهیل در ارائه خدمات مطلوب به مشتریان، افزایش اعتماد مشتریان از طریق ارائه کاربردیِ امن و همچنین، حفاظت از اطلاعات مشتریان، به حفظ مشتری کمک می کند.
تحلیل و پیش بینی تصمیم های استخدامی با استفاده از یادگیری ماشین و یادگیری عمیق(مقاله علمی وزارت علوم)
منبع:
مدیریت دولتی دوره ۱۷ تابستان ۱۴۰۴ شماره ۲
295 - 327
حوزههای تخصصی:
هدف: هدف این مقاله، بررسی استفاده از یادگیری ماشین و الگوریتم های یادگیری عمیق برای پیش بینی نتایج تصمیم های استخدام است. انتخاب نیروی انسانی مناسب، یکی از مسائل مهم و اساسی در همه سازمان ها و نهادهاست که بر ویژگی های عملکرد و بهره وری تأثیر مستقیمی دارد. از آنجایی که فرایند استخدام بسیار پیچیده و پیش بینی موفقیت در استخدام دشوار است، استفاده از تکنیک های مدرن مانند یادگیری ماشینی و یادگیری عمیق، برای بهبود دقت و صحت انتخاب پیشنهاد می شود. هدف این پژوهش بررسی توانایی این تکنیک ها برای کمک به سازمان ها در اتخاذ تصمیم های استخدامی بهتر و دور نگه داشتن آن ها از تصمیم گیری های پُرهزینه است.
روش: در این پژوهش از داده های مختلف شامل سن، تحصیلات، سابقه کار، توانایی های فنی و مهارت ها و ویژگی های شخصیتی متقاضیان شغل استفاده شد. این داده ها به کمک الگوریتم های یادگیری ماشین و یادگیری عمیق، برای پیش بینی احتمال موفقیت متقاضیان در مشاغل مختلف تجزیه وتحلیل شدند. مدل های طبقه بندی برای شبیه سازی رفتارهای استخدام و پیش بینی تصمیم ها در سطوح مختلف ویژگی و به عنوان بخشی از مدل های یادگیری ماشین استفاده شد. علاوه براین، رابطه بین ویژگی های متقاضی و نتایج استخدام از طریق مدل های یادگیری عمیق، برای شناسایی هرگونه روابط غیرخطی و پیچیده مورد بررسی قرار گرفت. مدل ها روی تمام داده های به دست آمده از منابع مورد اعتماد و بازبینی شده ای به دقت پردازش شدند، آموزش دیدند و ارزیابی شدند.
یافته ها: نتایج این مطالعه نشان می دهد که استفاده از یادگیری ماشینی و مدل های یادگیری عمیق، در افزایش دقت پیش بینی تصمیم های استخدامی تأثیر بسزایی دارد. در بین مدل های ارزیابی شده، الگوریتم کتبوست (CatBoost) بهترین عملکرد را داشت و به صحت 9533/0، دقت 9540/0 ، بازیابی 8925/0 و امتیاز F1 برابر با 9222/0 دست یافت که به طور چشمگیری از سایر الگوریتم ها بهتر بود. به طور مشابه، مدل های جنگل تصادفی (Random Forest) و اکس جی بوست (XGBoost) نیز عملکرد خوبی داشتند و به ترتیب به دقت 9213/0 و 9500/0 دست یافتند. نتایج تحلیل ویژگی ها نشان داد که مهارت های فنی، استراتژی استخدام و امتیاز مصاحبه، مهم ترین عوامل مؤثر در تصمیم گیری استخدام بودند. علاوه براین، مدل های یادگیری جمعی، به ویژه کتبوست، قادر بودند اثرهای پیچیده تر ویژگی های شخصیتی متقاضیان را شناسایی کنند؛ در حالی که مدل های یادگیری ماشین سنتی قادر نبودند آن را درک کنند.
نتیجه گیری: در این مطالعه استفاده از یادگیری ماشین و یادگیری عمیق برای کمک به تصمیم گیری بهتر درباره انتخاب نیروی کار نشان داده شده است. کتبوست بهترین عملکرد را داشت؛ زیرا می توانست روابط پیچیده تر و غیرخطی تر بین ویژگی های متقاضی و نتایج استخدام را شبیه سازی کند. این الگوریتم ها باعث کاهش هزینه ها، بهبود کیفیت استخدام و بهره وری سازمان می شوند. با این حال، برای دستیابی به بهترین نتایج، سازمان ها باید با دقت و به طور مداوم، داده های متقاضی را جمع آوری و پردازش کنند و به طور منظم، مدل های یادگیری ماشین را برای حفظ و بهبود دقت پیش بینی ها با تغییر بازار کار به روز کنند.
پیش بینی ریسک حسابرسی با بهره گیری از الگوریتم های یادگیری عمیق: الگویی نوین در ارتقاء تصمیم گیری حرفه ای حسابرسان(مقاله علمی وزارت علوم)
حوزههای تخصصی:
هدف: هدف اصلی پژوهش حاضر، توسعه مدلی دقیق، کارآمد و مبتنی بر الگوریتم های یادگیری عمیق برای پیش بینی ریسک حسابرسی در شرکت های پذیرفته شده در بورس اوراق بهادار تهران، و بررسی پیامدهای کاربردی این مدل در ارتقاء کیفیت قضاوت و تصمیم گیری حرفه ای حسابرسان است. این پژوهش در پاسخ به محدودیت های روش های سنتی ارزیابی ریسک حسابرسی که اغلب در شناسایی ناهنجاری ها، پیچیدگی روابط غیرخطی و وابستگی های زمانی ناکارآمد هستند، انجام شده است. روش : پژوهش حاضر از نوع کاربردی و مبتنی بر داده های واقعی است. جامعه آماری پژوهش شامل 150 شرکت پذیرفته شده در بورس اوراق بهادار تهران طی دوره زمانی 1392 تا 1402 می باشند. داده ها با استفاده از روش غربال گری انتخاب شده و از منابع رسمی مانند سامانه کدال، بانک مرکزی و صورت های مالی حسابرسی شده استخراج شده اند. ریسک حسابرسی به صورت یک متغیر ساختگی و با استفاده از وقوع خطاهای نوع اول و دوم در گزارش حسابرسی تعریف شده است. متغیرهای پیش بین شامل 40 متغیر در سه سطح اصلی (ویژگی های حسابرس، ویژگی های صاحبکار، و شرایط اقتصاد کلان و بازار سرمایه) هستند. از آزمون t برای انتخاب مهم ترین متغیرها استفاده شده و در نهایت 25 متغیر وارد مدل شدند.سه الگوریتم یادگیری عمیق شامل: ماشین بردار پشتیبان، شبکه عصبی پیچشی و شبکه عصبی بازگشتی، جهت آموزش مدل و ارزیابی عملکرد آن استفاده شدند. برای سنجش دقت مدل ها از ماتریس اغتشاش، صحت و خطای نوع دوم استفاده گردید. داده ها به روش تصادفی 50 بار به دو دسته آموزش (75%) و آزمون (25%) تقسیم شدند. یافته ها: نتایج نشان داد الگوریتم RNN با دقت 96.4 درصد، بهترین عملکرد را در پیش بینی ریسک حسابرسی داشت. الگوریتم SVM نیز با دقت 89.6 درصد عملکرد قابل قبولی ارائه کرد، در حالی که CNN با دقت 85.8 درصد پایین ترین دقت را ثبت نمود. الگوریتم RNN توانست با نرخ خطای نوع دوم 2.7 درصد، الگوی مناسبی از روابط زمانی و غیرخطی بین متغیرها را استخراج کند. آزمون t و آزمون کای دو نشان دادند که متغیرهایی نظیر اندازه شرکت، نقدینگی، سودآوری، تخصص مالی هیأت مدیره، استقلال حسابرسی و نرخ تورم، اثر معناداری بر ریسک حسابرسی دارند. همچنین متغیرهایی مانند تغییر حسابرس، رتبه بندی مؤسسه حسابرسی و تخصص حسابرس، با ریسک حسابرسی ارتباط معناداری دارند. نتیجه گیری: یافته ها حاکی از آن است که الگوریتم های یادگیری عمیق، به ویژه RNNمی توانند ابزارهای مؤثری برای ارتقاء دقت قضاوت حرفه ای در ارزیابی ریسک حسابرسی باشند. این مدل ها با توانایی بالا در استخراج الگوهای پنهان و وابستگی های زمانی، امکان تصمیم گیری آگاهانه تر و سریع تر را برای حسابرسان فراهم می کنند. از منظر کاربردی، این پژوهش می تواند به نهادهای نظارتی مانند سازمان حسابرسی، سازمان بورس و مؤسسات حسابرسی در تدوین راهکارهای دقیق تری برای ارزیابی ریسک کمک کند. همچنین، سرمایه گذاران و تحلیل گران بازار سرمایه می توانند با اتکاء به پیش بینی دقیق ریسک حسابرسی، تصمیمات شفاف تر و مبتنی بر داده اتخاذ نمایند.
کاربرد هوش مصنوعی در باستان شناسی(مقاله پژوهشی دانشگاه آزاد)
منبع:
پیام باستان شناس سال ۱۶ پاییز و زمستان ۱۴۰۳ شماره ۳۱
217 - 228
حوزههای تخصصی:
دانش باستان شناسی برای درک، تجزیه وتحلیل تاریخ و فرهنگ های انسانی، اهمیت فراوانی دارد. این دانش کمک می کند تا گذشته انسان در زمینه های مختلف مانند معماری، هنر، اجتماعی، اقتصادی و مذهب به درستی مطالعه شود. باستان شناسی امکان فهم بهتری از ریشه ها، اصالت فرهنگ ها و نهادهای را فراهم می نماید. تحقیقات در باستان شناسی زمینه های گوناگونی دارد مانند شناسایی سایت، کاوش سایت ها، تحلیل شکل ها و خطوط، ترمیم و تجزیه وتحلیل بقایای فیزیکی و آثار که همه آن ها فرایندی زمان بر می باشد. باستان شناسی به مطالعه گذشته می پردازد ولی جامعه باستان شناسان سعی کرده اند از فن آوری های روز مانند هوش مصنوعی در پژوهش های خود استفاده نمایند. هوش مصنوعی در سال های اخیر به دلیل دسترسی به سخت افزارهای توانمند و داده های زیاد رشد چشمگیری داشته و در زمینه های مختلف باستان شناسی مورداستفاده قرارگرفته است. این فن آوری درحال ایجاد تحول درروش کشف باستان شناسی و تجزیه وتحلیل آثار می باشد. هوش مصنوعی می تواند در شناسایی سایت ها، تحلیل محتوا، ترجمه و تفسیر متن ها، ترمیم و زمینه های دیگر به عنوان ابزار کمی به متخصصین کمک نموده و امکان پردازش داده های بزرگ که طی دهه ها تحقیق گردآوری و ذخیره شده را فراهم نماید. باوجود کاربردهای متعدد هوش مصنوعی در باستان شناسی که موجب افزایش سرعت و دقت در کارها شده است، این فناوری جایگزین محققان انسانی نمی شود، بلکه به عنوان ابزار توانایی های متخصصین را افزایش داده و آن ها را قادر می سازد پیشینه و تاریخ را عمیق تر کاوش کرده و درک بهتری به دست آورند. در این کار چالش ها و موانعی نیز وجود دارد که در این مقاله کاربردها و چالش ها موردبررسی قرار می گیرد.
شناسایی دستکاری قیمتی فروش پس از القای روند در بورس اوراق بهادار تهران با استفاده از روش های یادگیری عمیق(مقاله علمی وزارت علوم)
منبع:
بورس اوراق بهادار سال ۱۸ بهار ۱۴۰۴ شماره ۶۹
25 - 52
حوزههای تخصصی:
یکی از مهمترین چالشها و معضلات بازار سرمایه، دستکاری اوراق بهادار است. دستکاری اوراق بهادار نه تنها قیمتگذاری صحیح داراییها را با مشکل همراه میسازد بلکه سبب ایجاد خدشه در اعتماد سرمایه گذاران میگردد. لذا طراحی و استفاده از ابزارهای هوشمند نظارتی جهت شناسایی دستکاری قیمتی از اهمیت ویژهای برخوردار است. هدف از انجام این پژوهش ارائه مدلی مبتنی بر روش های یادگیری عمیق جهت شناسایی تخلف فروش پس از القای روند میباشد. برای این منظور در ابتدای امر بر اساس هشدار نظارتی طراحی شده در سامانه نظارتی سازمان بورس و اوراق بهادار و بررسی موارد مشکوک، دادههای برچسبدار تخلف تولید شده است. در ادامه با استفاده از شبکه متخاصم مولد، مشکل عدم توازن داده ها رفع شده و با استفاده از مدلهای شبکه عصبی پرسپترون چند لایه، شبکه عصبی بازگشتی، شبکه عصبی حافظه طولانی-کوتاه مدت و شبکه تابع پایه شعاعی به شناسایی دستکاری قیمتی پرداخته شده است. نتایج بررسی نشان میدهد مدلهای شبکه حافظه طولاتی-کوتاه مدت و شبکه عصبی بازگشتی با امتیاز F2 بالای 92% از عملکرد مناسبی در شناسایی دستکاری قیمتی برخوردار بوده و دارای قابلیت پیادهسازی در فرآیندهای نظارتی و تحقیقات آتی سایر حوزه های شناسایی تخلف می باشد.
پیش بینی منحنی بازده ایران: ترکیب مدل عاملی با رویکرد یادگیری ماشین(مقاله علمی وزارت علوم)
منبع:
چشم انداز مدیریت مالی سال ۱۵بهار ۱۴۰۴ شماره ۴۹
9 - 39
حوزههای تخصصی:
هدف: منحنی بازده یکی از ابزارهای کلیدی در تحلیل های اقتصادی به شمار می رود که نقش مهمی در تفسیر انتظارات بازار نسبت به سیاست های پولی، وضعیت اقتصادی و تورم در بازه های زمانی مختلف ایفا می کند. این منحنی همچنین در حوزه هایی چون سیاست گذاری مالی، مدل سازی کسب وکار نهادهای مالی و تصمیم گیری های سرمایه گذاری مانند ارزش گذاری دارایی ها و مدیریت ریسک کاربرد فراوانی دارد. با وجود اهمیت بالای موضوع، پیش بینی و تحلیل منحنی بازده در ایران کمتر مورد توجه قرار گرفته است درحالیکه اقتصاد ایران با چالش هایی مانند تورم مزمن، نوسانات ارزی، تحریم ها و وابستگی به درآمدهای نفتی مواجه است. هدف این پژوهش، پیش بینی منحنی بازده اوراق دولتی بدون ریسک در ایران است. در این راستا، پیش بینی با توجه به دو بعد زمان و سررسید انجام شد به طوریکه ضمن بررسی رفتار بازده اوراق با سررسید مختلف در هر زمان، روند تغییرات هر سررسید در طول زمان نیز تحلیل شد. روش: با وجود توسعه روش های مختلف برای پیش بینی منحنی بازده، مدل عاملی نلسون-سیگل پویا به دلیل تفسیرپذیری بالا، کاهش ابعاد و توانایی خلاصه سازی منحنی در سه عامل کلیدی سطح، شیب و انحنا، به عنوان چارچوب پایه برآورد انتخاب شد. این عوامل به دلیل دلالت های اقتصادی و مالی مشخص، نقشی مهم در تصمیم گیری های سیاستی و راهبردی ایفا می کنند. در این پژوهش، با استفاده از داده های اسناد خزانه اسلامی در بازار سرمایه ایران، تلاش شد تا عوامل مذکور با مجموعه مدل ها ازجمله مدل خود رگرسیون برداری-گارچ (به عنوان مدل مبنا) و سایر مدل ها ذیل یادگیری ماشین مانند الگوریتم مبتنی بر تقویت گرادیان به عنوان مدل سطحی و مدل های شبکه عصبی پیچشی – حافظه طولانی کوتاه-مدت و واحد بازگشتی دارای دروازه به عنوان مدل یادگیری عمیق پیش بینی شوند. در نهایت با جایگذاری مقادیر پیش بینی شده سه عامل در معادله نلسون–سیگل پویا منحنی بازده آینده بازسازی گردد. شایان ذکر است که هر یک از مدل ها از نظر پیچیدگی، تفسیرپذیری، نیازهای داده ای، الزامات محاسباتی و نوع روابط (خطی -غیرخطی)، ویژگی هایی متفاوت دارند. یافته ها: یافته های پژوهش نشان می دهد که مدل خودرگرسیون برداری-گارچ در پیش بینی عامل سطح عملکرد بهتری نسبت به سایر مدل ها دارد. این برتری به دلیل ساختار خودرگرسیو این مدل است که برای تحلیل روندهای پایدار و طولانی مدت مناسب تر عمل می کند. در مقابل، مدل های یادگیری عمیق به دلیل محدودیت داده و ضعف در شناسایی روندهای طولانی مدت، دقت کمتری در پیش بینی این عامل داشته اند. اما در مورد عامل های شیب و انحنا که بیشتر تحت نوسانات کوتاه مدت و میان مدت قرار دارند، مدل های یادگیری عمیق عملکرد بهتری نسبت به مدل های سنتی از خود نشان داده اند. این برتری به توانایی آن ها در درک الگوهای پیچیده و غیرخطی در طول زمان بازمی گردد، درحالی که مدل های آماری کلاسیک به دلیل مفروضات سخت گیرانه در مواجهه با چنین نوساناتی دچار خطا می شوند. در مرحله بعد، پیش بینی سه عامل در معادله نلسون–سیگل پویا جای گذاری شده و دقت بازسازی منحنی بازده با معیار ریشه میانگین مربعات خطا سنجیده شد. نتایج نشان داد که هیچ یک از مدل ها به تنهایی برتری مطلق در پیش بینی هر سه عامل را ندارند. بنابراین، استفاده از ترکیب بهینه از مدل ها – به گونه ای که هر عامل توسط مدلی با کمترین خطا پیش بینی شود – می تواند دقت بازسازی منحنی بازده را افزایش دهد و این رویکرد با ساختار مدل نلسون–سیگل، مبتنی بر فرض استقلال عامل ها از یکدیگر، نیز سازگار است. نتایج نشان داد در صورتیکه عامل سطح با مدل خود رگرسیون برداری – گارچ یا شبکه عصبی پیچشی – حافظه طولانی کوتاه مدت، شیب با واحد بازگشتی دارای دروازه و انحنا با مدل خود رگرسیون برداری-گارچ یا الگوریتم مبتنی بر تقویت گرادیان برآورد شوند به بهترین نتایج یعنی کمترین انحراف از واقعیت معادل حدود نیم درصد منجر خواهد شد. نتیجه گیری: این پژوهش با هدف ارائه مدلی دقیق برای پیش بینی منحنی بازده در بازار مالی ایران انجام شد. بدین منظور، مدل نلسون-سیگل پویا انتخاب شد که منحنی بازده را در قالب سه عامل سطح، شیب و انحنا مدل سازی می کند. این تحقیق از مجموعه مدل های سنجی و یادگیری ماشین جهت برآورد استفاده کرد. در مرحله نخست، عملکرد مدل ها در پیش بینی عامل های نلسون-سیگل ارزیابی شد. نتایج نشان داد که مدل خودرگرسیون برداری-گارچ برای پیش بینی عامل سطح عملکرد برتری دارد، در حالی که مدل های یادگیری عمیق در پیش بینی عامل های شیب و انحنا، که نوسانات کوتاه مدت و میان مدت دارند، دقیق تر عمل کردند. در مرحله دوم، دقت بازسازی منحنی بازده بر اساس عامل های پیش بینی شده سنجیده شد. یافته ها نشان داد که بهترین ترکیب برای پیش بینی منحنی زمانی حاصل می شود که عامل سطح با مدل خودرگرسیون برداری – گارچ یا شبکه عصبی پیچشی – حافظه طولانی کوتاه مدت، عامل شیب با واحد بازگشتی دارای دروازه و عامل انحنا با خودرگرسیون برداری-گارچ یا الگوریتم مبتنی بر تقویت گرادیان پیش بینی شود که منجر به خطای بازسازی کمتر از نیم درصد خواهد شد
ارائه رویکرد ترکیبی مبتنی بر یادگیری عمیق و یادگیری ماشین جهت تشخیص اخبار جعلی: مطالعه موردی اخبار فارسی در حوزه کرونا ویروس(مقاله علمی وزارت علوم)
منبع:
علوم و فنون مدیریت اطلاعات دوره ۸ پاییز ۱۴۰۱ شماره ۳ (پیاپی ۲۸)
283 - 316
حوزههای تخصصی:
هدف: اطلاعات غلط یا تأیید نشده، دقیقاً مانند اطلاعات دقیق در وب منتشر می شوند. بنابراین، ممکن است ویروسی شوند و بر افکار عمومی و تصمیمات آن تأثیر بگذارند. اخبار جعلی و شایعات به ترتیب محبوب ترین اشکال اطلاعات دروغ و تأیید نشده را نشان می دهند و برای جلوگیری از تأثیرات چشمگیر آنها باید در اسرع وقت کشف شوند. علاقه به تکنیک های مؤثر در شناسایی، در سال های اخیر بسیار سریع در حال افزایش است. مسئله تشخیص اخبار جعلی به عنوان یک مسئله طبقه بندی در پردازش زبان طبیعی و متن کاوی شناخته می شود و هدف آن تفکیک و تشخیص اخبار جعل از واقعی، در متن های استخراج شده و بهبود در دقت تشخیص اخبار جعلی است. شبکه های عصبی کانولوشن به عنوان یکی از مهم ترین مدل های یادگیری عمیق دقت بالایی را بر روی این مسائل بدست آورده اند. این شبکه ها شامل مشکلاتی مثل عدم در نظر گرفتن موقعیت کلمات می باشند که مسأله مذکور با استفاده از شبکه کپسول برطرف گردیده و جهت حل مشکل پردازش سنگین لایه های تمام متصل و فضای پارامتریک الگوریتم های XGBOOST و بهینه سازی ازدحام انبوه ذرات (PSO) برای دستیابی به دقت و صحّت بهینه پیشنهاد شده است. روش : مطالعه حاضر پژوهشی کاربردی بوده که در آن حدود 42000 اخبار فارسی از شهرهای مختلف ایران از توییتر جمع آوری شده و با استفاده از روش های پاک سازی و پیش پردازش، اطلاعات اضافی حذف و پس از برچسب زدن، اخبار آماده به کارگیری جهت رویکرد پیشنهادی با استفاده از نرم افزار پایتون و کتابخانه های مربوطه با الگوریتم های یادگیری ماشین و یادگیری عمیق شد. یافته ها: طی بررسی، آزمایش و تست، برخی از الگوریتم های یادگیری ماشین دارای قدرت بیشتری در مسائل طبقه بندی بودند، ولی با تغییرات و اعمال روش های پیشنهادی که در ساختار الگوریتم شبکه کانولوشن و شبکه کپسول صورت گرفت، نتایج بهینه نسبت به الگوریتم های یادگیری ماشین و سایر الگوریتم های پایه و الگوریتم های مورد ارزیابی بدست آمد. نتیجه گیری: راهکارهای پیشنهادی در این تحقیق در مقایسه با رویکردهای الگوریتم های پایه و یا راهکارهای صورت گرفته جهت حل مشکلات مذکور بدون اضافه کردن سربار اضافی از لحاظ تعداد ویژگی ها و عمق شبکه، با تغییر در ورودی توانسته است به نتایج بهتر و قابل قبول از سایر رویکردهای موجود در ادبیات دست یافته و به دقت و صحّت حدود 96 درصد دست یابد.
ارزیابی ترکیب مدل های زبانی و روش های دسته بندی برای بهبود طبقه بندی نثرهای ادبی کلاسیک فارسی(مقاله علمی وزارت علوم)
حوزههای تخصصی:
طبقه بندی متون فارسی، به ویژه نثرهای ادبی کلاسیک که سرشار از ساختارهای زبانی پیچیده و لایه های معنایی عمیق هستند، یکی از چالش های کلیدی در پردازش زبان طبیعی[1]محسوب می شود. این پژوهش با هدف ارزیابی روش های مختلف یادگیری ماشین و مدل های زبانی گوناگون برای طبقه بندی موضوعی نثرهای ادبی فارسی انجام شده است. در این مطالعه افزون بر شیوه های رایج طبقه بندی (مانند استفاده از مدل های از پیش آموزش دیده مانندmBERT،ParsBERT و RoBERTa)، از رویکردهای نوآورانه ای نیز بهره گرفته شده است. این رویکردهای نوین شامل ترکیب تعبیه سازی[2]های دو مدل با هم یا استفاده از توکن های عددی استخراج شده از یک مدل برای طبقه بندی با مدل دیگر هستند که با هدف بهینه سازی عملکرد و تجزیه وتحلیل نتایج به کار رفته اند. همچنین، تکنیک های سنتی تعبیه سازی همچون TF-IDF، Bag of Words و FastText به کار گرفته شدند و برای ارزیابی عملکرد، بردارهای استخراج شده به مدل های متنوع طبقه بندی، ازجمله مدل های شبکه عصبی بازگشتی LSTM و GRU و همچنین مدل های طبقه بندی برداری (مانند SVM[3] ،Random Forest و Logistic Regression) ارائه شدند. نوآوری این پژوهش در ترکیب تعبیه های مدل های ترنسفورمری با یکدیگر و با بردارهای ویژگی دیگر یا طبقه بندی آن ها با مدل های طبقه بندی برداری است که نتایج به دست آمده، بهبود معنادار معیارهای صحت، بازخوانی و امتیاز F1 را نشان می دهد. این رویکرد، افزون بر بهبود طبقه بندی متون فارسی، امکان شناسایی الگوهای زبانی و معنایی در نثرهای کلاسیک فارسی را فراهم می کند. همچنین، این پژوهش می تواند نقش مدل های زبانی و الگوریتم های یادگیری ماشین را در مطالعات ادبی گسترش دهد و آن ها را با نیازهای خاص متون ادبی سازگارتر و ازنظر عملکرد، دقیق تر از روش های پیشین سازد. [1]. NLP [2]. Embedding [3]. Support Vector Machine
بازسازی داده های دمای سطح زمین سنجنده ECOSTRESS با استفاده از یادگیری عمیق و رگرسیون بردار پشتیبان (مطالعه موردی: آبخیزهای بار-اریه و لتیان)(مقاله علمی وزارت علوم)
حوزههای تخصصی:
سابقه و هدف : دمای سطح زمین یک متغییر کلیدی در برنامه ریزی ناحیه ای و منطقه ای می باشد باتوجه به اهمیت دمای سطح زمین در مطالعات تغییرات اقلیمی، مدل سازی هیدرولوژیکی ، نظارت بر پوشش گیاهی، جزیره گرمای شهری، توسعه ی شهری،گرمایش جهانی، شرایط کشاورزی و همچنین تأثیر آن بر نرخ و زمان رشد گیاهان پارامتر ورودی به اکثر مدل ها است؛ هرچه دقت تخمین این متغیر بالاتر باشد خروجی مدل نیز همراه با دقت بالاتری خواهد بود؛ بنابراین مطالعه بهینه و مناسب تغییرات مکانی و زمانی دمای سطح زمین در شرایط جوی و آب و هوایی متفاوت ضروری است.با توجه به محدودیت ایستگاه های هواشناسی، سنجش از دور می تواند به عنوان پایه و اساس بسیاری از داده های هواشناسی مورد استفاده قرار گیرد. دمای سطح زمین در تصاویر ماهواره ای شامل میانگین دمای پیکسلی است که پوشش دهنده بخشی از سطح زمین بوده و بر اساس انرژی رسیده به سنجنده (رادیانس) در باند حرارتی محاسبه می شود. از این رو عدم وجود قدرت تفکیک زمانی و مکانی بالا ی داده های ماهواره ای به طور همزمان یک چالش اساسی در بررسی و تخمین متغیر دما مطرح می گردد. مواد و روش ها : در این مطالعه سعی شد با استفاده از روش یادگیری عمیق و یادگیری ماشین، از تصاویر ماهواره ای MODIS، VIIRS و ECOSTRESS استفاده و نقشه های روزانه دمای سطح زمین سنجنده ی ECOSTRESS با قدرت تفکیک مکانی 70 متر در زمان های فاقد داده در آبخیز بار-اریه نیشابور استان خراسان رضوی و آبخیز سد لتیان در استان تهران تولید گردد. مدل های مورد استفاده در پژوهش شامل مدل SVR به عنوان یک مدل محبوب یادگیری ماشین در زمینه های پیش بینی و رگرسیون و مدل LSTM یکی از قوی ترین مدل های یادگیری عمیق در حوزه پردازش سری های زمانی می باشند. برای این منظور سه جفت تاریخ برای هرحوضه (شش تاریخ) انتخاب شد. تصاویر هر جفت داده به طور همزمان دراختیار مدل ها قرار گرفتند. درنهایت با استفاده از آماره های RMSE، و NRMSE عملکرد هر مدل در هر تاریخ مورد ارزیابی قرار گرفت. نتایج و بحث : بررسی ضرایب RMSE ، و NRSME مربوط به مدل LSTM و SVR برای هر دو منطقه نشان دهنده ی برتری عملکرد مدل LSTM بود. بهترین نتیجه RMSE ، و NRMSE حاصل از مدل LSTM برای آبخیز بار-اریه در تاریخ های 17 ژوئن 2020 به ترتیب 81/1 درجه سانتی گراد، 66/0 و 94/11 درصد و در حوزه آبخیز لتیان برای تاریخ 28 ژوئن 2019 به ترتیب حدود 61/1 درجه سانتی گراد، 83/0 و 65/8 درصد بود. مدل LSTM با توجه به ساختار، ویژگی های خود و به عنوان یک مدل یادگیری عمیق قوی با استخراج ویژگی از درون داده های خام با درنظر گرفتن ماهیت سری زمانی بودن داده ها توانست بر پیچیدگی های فرآیند تحت مدل سازی غلبه نماید.ذکر این نکته ضروری است که با درنظرگرفتن پیچیدگی فرآیند و متنوع بودن عوامل موثر بر دمای سطح زمین نتایج به دست آمده از دقت و صحت قابل قبولی برخوردار هستند. بازسازی و پیش بینی دمای سطح زمین برای 3 الی4 روز بعد انجام شده است (با توجه به فاصله زمانی بین دو تصویر متوالی ECOSTRESS). تنوع و جزئیات رویدادهایی که در این زمان می تواند رخ دهد گواهی دیگر بر مناسب بودن نتایج و کارایی مدل LSTM است. نتیجه گیری : بررسی نتایج و مقادیر به عنوان یک معیار استاندارد برای ارزیابی تحلیل های رگرسیون، و نیز مقادیر RMSE و NRMSE نشان از برتری مدل LSTM در بازسازی مقادیر دمای سطح زمین ECOSTRESS می باشد. با توجه به دامنه تغییرات و مولفه های موثر، دمای سطح زمین در تاریخ های مورد بازسازی بین صفر تا بعضا نزدیک به 35 درجه سانتیگراد تغییر نمود، مقدار RMSE (نشان دهنده متوسط خطای مدل ) برای مدل LSTM بین حدود 1.5 تا 3 درجه سانتیگراد بوده که قابل قبول و مناسب به نظر می رسد. مقادیر نرمال شده RMSE یا همان NRMSE نیز در اغلب تاریخ ها بین 8 تا 17 درصد بوده که در مدل سازی های محیطی با توجه به پیچیدگی های بالای فرآیندها مقادیر قابل قبولی می باشند.
پایش هوشمند مقره های خطوط انتقال نیرو با استفاده ازتصاویر پهپاد و مدل یادگیری عمیق(مقاله علمی وزارت علوم)
منبع:
اطلاعات جغرافیایی سپهر دوره ۳۴ تابستان ۱۴۰۴ شماره ۱۳۴
81 - 100
حوزههای تخصصی:
خطوط انتقال نیرو، بخش حیاتی شبکه های برق هستند و سلامت آن ها به منظور تامین برق پایدار جامعه ضروری است. مقره ها، به عنوان عایق بین هادی ها نقش اساسی در این شبکه ایفا می کنند و عیوب آن ها می تواند منجر به قطع، اتلاف برق و خطرات جانی شود. پایش و تشخیص به موقع این عیوب، نقشی کلیدی در حفظ پایداری و امنیت شبکه دارد. روش های پایش سنتی خطوط انتقال برق نیز زمان بر و پرهزینه بوده و احتمال وقوع حوادث در این روند بیشتر می شود. پهپاد و پردازش تصاویر هوایی حاصل از آن با استفاده از شبکه های عصبی یادگیری عمیق روشی نوین و کارآمد برای پایش خطوط انتقال برق ارائه می دهد. هدف این پژوهش، غلبه بر چالش های روش های سنتی تشخیص عیوب، مانند زمان بر بودن، پرهزینه بودن و احتمال وقوع حوادث است. همچنین در تحقیق حاضر، روشی نوین بر مبنای تصویر برداری هوایی و استفاده از وظایف مختلف مدل یادگیری عمیق یولو 8 نانو ، برای پایش و تشخیص عیوب مقره ها در خطوط انتقال نیرو ارائه می شود. در روند این پژوهش مدل یادگیری عمیق طی دو مرحله با در نظر گرفتن دو کلاس سالم و معیوب و سه کلاس سالم، شکستگی و آرک زدگی آموزش داده شده که دقت 92.6% در وظیفه تشخیص و دقت 98.9% در وظیفه طبقه بندی با دو کلاس و دقت کل 93.9% به منظور تشخیص مقره در تصویر و دقت 99.2% به منظور طبقه بندی تصاویر در سه کلاس مقره سالم، مقره شکسته و آرک زدگی مقره برای مدل یولو 8 حاصل شده است. نتایج این مطالعه نشان می دهد که روش پیشنهادی مبتنی بر تصویربرداری هوایی با استفاده از مدل های عمیق یولو 8 ، روشی دقیق، کارآمد و مقرون به صرفه برای پایش و تشخیص عیوب مقره ها در خطوط انتقال برق است. این روش در مقایسه با روش های سنتی پایش مقره ها، از مزایای قابل توجهی از جمله دقت بالا، سرعت بالای پردازش، قابلیت اطمینان بیشتر و هزینه عملیاتی پایین تر برخوردار است.
نمایش دانش سرمایه گذاری برحسب بازده در بازار سهام ایران با بهره گیری از مدل های عصبی عمیق در شرایط نااطمینانی محیطی(مقاله علمی وزارت علوم)
منبع:
تحقیقات مالی دوره ۲۷ پاییز ۱۴۰۴ شماره ۳
531 - 565
حوزههای تخصصی:
هدف: شناخت رفتار بازار سرمایه و سوی گیری های آن ها، پیش زمینه ای برای تحلیل رفتار بازده در زمان وقوع رخدادهای حاکم بر جامعه است. مسائل سیاسی، اقتصادی و اجتماعی روز دنیا، به راحتی می توانند پارامترهای چرخه اقتصاد را تحت تأثیر قرار دهند. بازار سهام نیز به عنوان بخش مهمی از اقتصاد، از این امر مستثنا نخواهد بود. دقت زیاد پیش بینی و شناخت نوسان ها، اطمینان سرمایه گذار را افزایش می دهد و به تصمیم گیری های صحیح و به موقع برای مدیریت دارایی منجر خواهد شد. شناخت کارآمدترین ابزار برای پیش بینی بازده نیز، لازمه تحلیل رفتار این بازار است. هدف پژوهش حاضر، خوشه بندی شرکت های موجود در بازار بورس، برحسب میزان تأثیرپذیری آن ها از پیشامدهای دوره تحریم با استفاده از روش برتر هوش مصنوعی برای پیش بینی است. روش: داده های بازده هفتگی ۲۰۰ شرکت فعال در بازار سهام ایران، اطلاعات مربوط به متغیرهای نوع صنعت، اندازه، نقدینگی و سودآوری شرکت های منتخب در بازه زمانی ۱۳۹۵ تا ۱۳۹۹ به همراه پیشامدهای سیاسی و اقتصادی و اجتماعی برگزیده، در این پژوهش استفاده شده است. در مرحله نخست، چهار مدل LSTM ، DQN ، RF و مدل SVR، به عنوان مدل های برتر یادگیری عمیق و یادگیری ماشین، مقایسه شده است و در ادامه، پیش بینی بازده سهام براساس مدل برتر صورت می پذیرد. در گام دوم، روی سناریوهای حاصل از تأثیرپذیری تغییرات بازده نسبت به هر یک از ورودی های نوع صنعت، اندازه، نقدینگی و سودآوری شرکت ها تحلیل حساسیت انجام می شود و در آخر نیز، به منظور تحلیل دستاوردها، به خوشه بندی نتایج در سه دسته پیشامدهای اقتصادی، سیاسی اقتصادی و اقتصادی اجتماعی با استفاده از روش خوشه بندی تفکیکی پرداخته شده است. یافته ها: پس از مقایسه مدل های یادگیری عمیق (LSTM، DQN) و یادگیری ماشین (SVR، RF)، مشخص شد که برای پیش بینی بازده سهام، مدل LSTM (حافظه کوتاه مدت طولانی)، نسبت به سایر مدل ها برتر است. نتایج حاصل از خوشه بندی نیز، طیف وسیعی از تحلیل ها را بسته به نیاز، در اختیار سرمایه گذاران قرار می دهد که می تواند هنگام مواجهه با رخدادها، مبنایی برای تحلیل روند بازده قرار گیرد؛ اما به طور کل می توان گفت که پیشامدهای سیاسی روی بازده سهام شرکت ها بیشترین تأثیر را می گذارند. پس از آن، پیشامدهای اقتصادی و در آخر پیشامدهای اجتماعی، روی بازده سهام شرکت ها کمترین تأثیر را دارند. در راستای ارزیابی معیارها نیز، به ترتیب معیار اندازه شرکت، نوع صنعت، نقدینگی و در نهایت سودآوری، در آخرین جایگاه رتبه بندی عوامل مؤثر در نوسان ها قرار گرفتند. نتیجه گیری: بازار سهام ایران تحت تأثیر اخبار سیاسی، اقتصادی و اجتماعی و همچنین اقدامات و بیانیه های دولتی قرار دارد؛ اما بسته به نوع خبر، میزان تأثیرپذیری آن ها متفاوت خواهد بود. تأثیر پیشامدها بر بازده سهام، به صورت مستقیم است و صدق این عبارت که طی وقوع پیشامدهای سیاسی، اقتصادی و اجتماعی، بازده شرکت های بورسی بسته به نوع صنعت، اندازه، نقدینگی و سودآوری شرکت ها دچار نوسان می شوند، به تأیید می رسد. در این میان، پیشامدهای سیاسی بیشترین تأثیر را بر بازده سهام شرکت ها دارند و باید در کانون توجه فعالان بازار سرمایه قرار گیرند.
هوش مصنوعی؛ چیستی، پیشینه، فرصت ها و تهدیدها
حوزههای تخصصی:
برگزاری «دوره آشنایی با هوش مصنوعی» در مرکز تحقیقات کامپیوتری علوم اسلامی (نور) که توسط حجّت الاسلام والمسلمین احمد شجاعی فر، کارشناس کتابخانه های دیجیتال نور ارائه شد، ما را بر آن داشت تا خلاصه ای از مباحث مطرح شده در این جلسات ارزنده و کاربردی را خدمت خوانندگان فرهیخته فصلنامه ره آورد نور ارائه دهیم.
در این نوشتار، با چیستی لغوی، تعریف اصطلاحی، بنیان علمی (ارتباط با سایر علوم)، تاریخچه، فرصت ها و تهدیدهای هوش مصنوعی آشنا می شویم. در ادامه، خلاصه ای از این مطالب، با اندکی ویرایش و اصلاح، به خوانندگان عزیز ارائه می شود.