سایت های شاهان

عینک طبی ارزان

عینک طبی ارزان آیا احساس می‌کنید که همه چیز جلوی چشمان شما محو می‌شود؟ آیا در خواندن مشکل دارید؟ آیا اشیاء دوردست برای شما مبهم هستند؟ واقعاً همه این‌ها نشانه چیست؟ مطمئناً نشانه راز پیچیده‌ای نیست. جواب این سوال ساده است، شما از مشکل بینایی رنج می‌برید. گرچه این یک نشانه واضح است، اما بسیاری درک نمی‌کنند که در واقع به عینک نیاز دارند و این علائم را نادیده می‌گیرند.

بدیهی است که حدود 60 درصد از جمعیت جهان با نوعی مشکل بینایی روبرو هستند و برای محافظت از چشم عینک می‌زنند. به غیر از مشکلات بینایی مربوط به سن، بسیاری از عوامل دیگر مانند نگاه کردن به صفحات گوشی و مانیتور، رژیم غذایی ضعیف که بدون توجه به سن باعث اختلال در بینایی می‌شود، وجود دارد. مشکل بینایی اگر درمان نشود، می‌تواند جدی شود. شما باید علائم آن را بفهمید و بلافاصله با چشم پزشک خود ملاقات کنید و یک عینک مناسب دریافت کنید.

در صورت نیاز به عینک چه علائمی ممکن است مشاهده شود؟
سطح بینایی شما با افزایش سن تغییر می‌کند. پس تغییر در بینایی غیر طبیعی نیست. به عنوان مثال، مواردی مانند نیاز به نور بیشتر برای دید واضح و مشکل در تمایز بین رنگ سیاه و آبی، طبیعی است و نیازی به استفاده از عینک ندارید. اما مواقعی وجود دارد که تغییرات بینایی طبیعی نیستند و ممکن است نیاز به استفاده از عینک باشد.

برخی از افرادی که به عینک نیاز دارند علائم چندانی ندارند، در حالی که برخی دیگر علائم کاملاً واضحی دارند. علائم نیاز به عینک می‌تواند بسته به نوع مشکل چشمی که دارید، متفاوت باشد.

این نشانه‌ها گسترده هستند اما در اینجا شایع‌ترین و واضح‌ترین علائم ذکر شده است که به شما کمک می‌کند زمان نیاز به عینک را تشخیص دهید:

تاری دید
اگر نمی‌توانید شیء را به وضوح ببینید که بیش از 10 قدم با آن فاصله دارید یا اگر کلمات نوشته شده در روزنامه مبهم به نظر می‌رسند، ممکن است شما به دوربینی یا نزدیک بینی دچار شده باشید. مشکل در مشاهده اشیاء نزدیکتر یا دور، یکی از علامت‌های بارز وجود مشکل بینایی است.

بینایی ضعیف به دلیل تغییر نور
اگر در تاریکی مشغول دیدن اشیاء هستید و یا چشمان شما قادر به دلیل تغییر ناگهانی نور قادر به انطباق نیستند، پس باید یک معاینه چشم داشته باشید. گاهی ماهیچه‌های چشم که به انقباض و گسترش آن کمک می‌کنند، ضعیف می‌شوند و به همین دلیل با چنین اختلالات بینایی روبرو می‌شوید. این مشکل به احتمال زیاد به دلیل افزایش سن بروز می‌کند.

نگاه کردن دائم به صفحات الکترونیکی
چه برای اهداف کاری باشد و چه برای گذر زمان، دستگاه‌های دیجیتالی بطور روزانه مورد استفاده قرار می‌گیرند و به یکی از دلایل عمده ضعیف شدن چشم تبدیل شده‌اند. ممکن است مدام چشم خود را بمالید. اگر با ضعف چشم در اثر استفاده از ابزارهای دیجیتالی دست و پنجه نرم می‌کنید، به شما توصیه می‌شود از عینک‌های مسدود کننده نور استفاده کنید.

سردرد مکرر
معمولاً میگرن عامل اصلی سردرد محسوب می‌شود. یکی دیگر از دلایل اصلی سردرد، خستگی مداوم چشم‌ها است. خیره شدن به کامپیوتر برای ساعت‌های طولانی یا قرار گرفتن در معرض نور در ابتدا باعث سردرد می‌شود و در نهایت منجر به مشکلات بینایی می‌شود. در صورت داشتن سردرد باید فوراً توسط پزشک معاینه شوید.

ریز کردن چشم‌ها
ریز کردن چشم‌ها می‌تواند طبیعی باشد اما اگر متوجه شدید که مرتباً این کار را انجام می‌دهید، ممکن است به عینک احتیاج داشته باشید. این نشانه‌ای از ضعف بینایی است که می‌تواند به دلیل نزدیک بینی یا دوربینی باشد. ریز کردن چشم‌ها معمولاً در کودکان مشاهده می‌شود.

مشاهده هاله هنگام قرار گرفتن در معرض نور
آیا دایره‌هایی را می‌بینید که در اطراف نور یا چراغ‌های اتومبیل پرواز می‌کنند؟ خوب، این نشانه یک مشکل بینایی است که می‌توان با استفاده از عینک مناسب آن را از بین برد. به گفته کارشناسان چشم، دیدن هاله نیز می‌تواند نشانه آب مروارید باشد.

تکثر سیاسی و همگرایی اجتماعی

گاهی اوقات می بینیم یا می شنویم یک فرد یا گروه یا جریانی که مخاطبان قابل توجهی هم جذب کرده، و همسو و در راستای منافع ملی ایران هم فعالیت می کند، اما نظام فکری که ارائه می کنند بطور کامل با نظام فکری ما سازگار نیست.

بعنوان مثال ممکن است ما نگاهی علمی و موشکافانه به مسائل داشته باشیم و از این طریق به نتایجی برسیم. از سوی دیگر فرد یا گروهی را می بینیم که از طریق داستان های جن و پری، یا حتی برخی نظریه های غیر دقیق و بحث برانگیز به مسایل می نگرند، اما نهایتا به همان نتایج کلی می رسند که ما رسیده ایم.

 


 

معنای دقیق تکثر توام با همگرایی را مولانا به نحو احسن در داستان موسی و شبان نقل می کند.

شبانی (چوپانی) در بیابان نشسته بود و با زبان خودش با خدای خود خلوت کرده بود.

دید موسی یک شبانی را براه
کو همی‌گفت ای گزیننده اله
تو کجایی تا شوم من چاکرت
چارقت دوزم کنم شانه سرت
جامه‌ات شویم شپشهااَت کشم
شیر پیشت آورم ای محتشم
دستکت بوسم بمالم پایکت
وقت خواب آید بروبم جایکت
ای فدای تو همه بزهای من
ای بیادت هیهی و هیهای من

موسی وقتی می بیند که شبان اینچنین سخن های کفر آلوده بر زبان می راند، بسیار خشمگین شده و او را عتاب می نماید.

این نمط بیهوده می‌گفت آن شبان
گفت موسی با کی است این ای فلان
گفت با آنکس که ما را آفرید
این زمین و چرخ ازو آمد پدید
گفت موسی های بس مُدبَر شدی
خود مسلمان ناشده کافر شدی
این چه ژاژست این چه کفرست و فشار
پنبه‌ای اندر دهان خود فشار
گند کفر تو جهان را گنده کرد
کفر تو دیبای دین را ژنده کرد
چارق و پاتابه لایق مر تراست
آفتابی را چنینها کی رواست
گر نبندی زین سخن تو حلق را
آتشی آید بسوزد خلق را
آتشی گر نامدست این دود چیست
جان سیه گشته روان مردود چیست
گر همی‌دانی که یزدان داورست
ژاژ و گستاخی ترا چون باورست
دوستی بی‌خرد خود دشمنیست
حق تعالی زین چنین خدمت غنیست
با کی می‌گویی تو این با عم و خال
جسم و حاجت در صفات ذوالجلال
شیر او نوشد که در نشو و نماست
چارق او پوشد که او محتاج پاست
ور برای بنده‌شست این گفت تو
آنک حق گفت او منست و من خود او
آنک گفت انی مرضت لم تعد
من شدم رنجور او تنها نشد
آنک بی یسمع و بی یبصر شده‌ست
در حق آن بنده این هم بیهده‌ست
بی ادب گفتن سخن با خاص حق
دل بمیراند سیه دارد ورق
گر تو مردی را بخوانی فاطمه
گرچه یک جنس‌اند مرد و زن همه
قصد خون تو کند تا ممکنست
گرچه خوش‌خو و حلیم و ساکنست
فاطمه مدحست در حق زنان
مرد را گویی بود زخم سنان
دست و پا در حق ما استایش است
در حق پاکی حق آلایش است
لم یلد لم یولد او را لایق است
والد و مولود را او خالق است
هرچه جسم آمد ولادت وصف اوست
هرچه مولودست او زین سوی جوست
زانک از کون و فساد است و مهین
حادثست و محدثی خواهد یقین

شبان وقتی این عتاب های تند را می شنود بسیار دلشکسته شده و دهانش را بسته و راهش را می گیرد و می رود.

گفت ای موسی دهانم دوختی
وز پشیمانی تو جانم سوختی
جامه را بدرید و آهی کرد تفت
سر نهاد اندر بیابانی و رفت

در همین لحظه خداوند موسی را سرزنش می کند که چرا دل بنده من را شکستی؟! تو قرار بود بندگان را به من وصل کنی، نه اینکه فراری بدهی!

وحی آمد سوی موسی از خدا
بندهٔ ما را ز ما کردی جدا
تو برای وصل کردن آمدی
یا برای فصل کردن آمدی
تا توانی پا منه اندر فراق
ابغض الاشیاء عندی الطلاق
هر کسی را سیرتی بنهاده‌ام
هر کسی را اصطلاحی داده‌ام
در حق او مدح و در حق تو ذم
در حق او شهد و در حق تو سم
ما بری از پاک و ناپاکی همه
از گرانجانی و چالاکی همه
من نکردم امر تا سودی کنم
بلک تا بر بندگان جودی کنم
هندوان را اصطلاح هند مدح
سندیان را اصطلاح سند مدح
من نگردم پاک از تسبیحشان
پاک هم ایشان شوند و درفشان
ما زبان را ننگریم و قال را
ما روان را بنگریم و حال را
ناظر قلبیم اگر خاشع بود
گرچه گفت لفظ ناخاضع رود
زانک دل جوهر بود گفتن عرض
پس طفیل آمد عرض جوهر غرض
چند ازین الفاظ و اضمار و مجاز
سوز خواهم سوز با آن سوز ساز
آتشی از عشق در جان بر فروز
سر بسر فکر و عبارت را بسوز
موسیا آداب‌دانان دیگرند
سوخته جان و روانان دیگرند
عاشقان را هر نفس سوزیدنیست
بر ده ویران خراج و عشر نیست
گر خطا گوید ورا خاطی مگو
گر بود پر خون شهید او را مشو
خون شهیدان را ز آب اولیترست
این خطا را صد صواب اولیترست
در درون کعبه رسم قبله نیست
چه غم از غواص را پاچیله نیست
تو ز سرمستان قلاوزی مجو
جامه‌چاکان را چه فرمایی رفو
ملت عشق از همه دینها جداست
عاشقان را ملت و مذهب خداست
لعل را گر مهر نبود باک نیست
عشق در دریای غم غمناک نیست

.

https://decordesign.tebyan.net/post/6/

پارکت لمینت ایرانی

کاغذ دیواری ارزان

کاغذ دیواری فانتزی

https://decordesign.tebyan.net/post/7/

درسهایی از انقلاب اکتبر در روسیه

 

درسهایی از انقلاب اکتبر در روسیه

شکی نیست که مدرنیته در غرب متولد شد. گذار غرب به مدرنیته شامل سه حرکت بود که از سه نقطه متفاوت در اروپا شروع شده و پس از مدتی در هم ادغام گشتند.

1- اولین اتفاق بزرگ، وقوع انقلاب کبیر فرانسه بود. بر اثر این انقلاب، حکومت پادشاهی و اشرافیت سنتی در فرانسه سرنگون شده و نظام جمهوری برپا شد. برخلاف تصور بسیاری که می پندارند این انقلاب موجب پیشرفت فرانسه شد، اتفاقا وقوع انقلاب موجب تضعیف و فلاکت و بدبختی فرانسه شد.

2- تقریبا همزمان با وقوع انقلاب در فرانسه، در انگلستان اصلاحاتی در سطح اجتماعی اجرا شد که موجب وقوع انقلاب صنعتی گردید. انگلیس اولین کشور جهان بود که وارد انقلاب صنعتی شد، و به دلیل در اختیار داشتن مستعمرات گسترده، صنایع انگلیسی به سرعت گسترش پیدا کردند.

3- مولفه سوم، حرکت فکری و فلسفی در آلمان بود که در همان مقطع، بزرگترین فلاسفه غربی را پدید آورد. در آن زمان کشوری به نام آلمان هنوز وجود خارجی نداشت، بلکه مجموعه ای از پادشاهی های کوچک و ملوک الطوایفی وجود داشت که قدرتمندترین آنها پادشاهی پروس بود. نهایتا با حدود هشتاد سال تاخیر، این پادشاهی ها با هم متحد شدند و امپراطوری آلمان را تشکیل دادند. امپراطوری آلمان با اعمال سیاست ها و اصلاحات اجتماعی و سیاسی، زمینه ساز سریعترین انقلاب صنعتی در اروپا شد، بطوریکه طی مدت کوتاهی قدرت صنعتی آلمان از انگلیس و فرانسه گوی سبقت را ربود.

 

روکش کابینت

https://diigo.com/0jb0o2/

https://www.myfav.es/decorchoob/

کارآفرینی با چشمان بسته!

کارآفرینی با چشمان بسته!

همه شنیدیم که درصد موفقیت کسب و کار های نوپا روزانه داره کم و کمتر میشه.

اما تا حالا به این فکر کردین که چرا؟

هر روز به تعداد افرادی که دارن تلاش میکنن کسب و کار خودشون رو راه اندازی کنند اضافه میشه و اتفاقی که تو حوزه کسب و کار خیلی رواج داره توهم فهم بازار و مشتری است.

با تبلیغات خیلی زیاد این روز ها که همه رو به سمت کارآفرینی و استارت آپ دعوت میکنه جای تعجب نداره اگه ببینیم همه تیپ افراد اعم از صاحبین کسب و کار های سنتی و افراد کم تجربه به این حوزه پا میذارن و طبق معمول هم با تبلیغاتی شانتاژ شدن که این کارو آسون تر از چیزی که هست نشون میده و با به رخ کشیدن چند مورد استثنای موجود این حس رو القا میکنه که راه اندازی یک کسب و کار نوین کاری هست که همه از پسش بر میان.
توی مدتی که توی این حوزه فعال هستم خیلی از افراد و بعضا همکاران و مشتریان خودم را دیدم که سرمایه و انرژی خیلی زیادی رو توی این حوزه وارد میکنند بدون اینکه آگاهی کافی از ماهیت کاری که میکنند داشته باشند و صرفا با یک ایده وسوسه شدن تا استیو جابز بعدی باشن و تحول رو تو صنعتشون ایجاد کنند!
برای راه اندازی کسب و کار جدید شما نیاز به یک مدل کسب و کار جدید دارید!
خیلی از مدیران سنتی کسب و کار ها جدیدا و مخصوصا با شرایط موجود به فکر ورود به این حوزه کردند و با این استدلال که سابقه مدیریت کسب و کار خودشان را داشته اند بدون ترس سرمایه گذاری های هنگفتی انجام میدهند که نهایتا جز ضرر چیزی نصیبشان نمی شود البته ناگفته نماند برخی هم با مطالعه و آگاهی وارد این حوزه میشوند و نهایتا منجر به تحول و مهم تر از آن تبدیل به یک الگو بی نظیر برای تازه واردان این صنعت می شوند.

 

لیست قیمت قرنیز

قرنیز چیست

قرنیز چوبی

نامداران

پیدا کردن اسامی خاص توی متون یکی از تسک‌های پیش‌پردازشی توی پردازش زبان طبیعی محسوب می‌شه. توی این تسک دنبال این هستیم تا اسامی خاص مثل اسم افراد یا اسم سازمان‌ها و یا اسم مکان‌ها رو بتونیم پیدا کنیم و تگ بزنیم. تگ هر یک از این کلمات می‌تونه به عنوان فیچر برای تسک‌های بعدی پردازش زبان طبیعی محسوب بشه. البته دیده شده که همین تسک به تنهایی هم می‌تونه کاربرد‌هایی داشته باشه. مثلا قابلیت X-ray توی کیندل‌های آمازون دقیقا از همین استفاده می‌کنه. اگه از کتابخوان‌های آمازون استفاده کرده باشید می‌دونید که موقع مطالعه کتابتون می‌تونید از این قابلیت استفاده کنید و اطلاعات مختصری درباره هر یک از اسامی خاص توی متن رو ببینید. تو این پست قصد داریم درباره این تسک و روند پیشرفتش و مدل‌های موجود صحبت کنیم.

نامداران وارد می‌شوند!: معرفی مساله
برای اینکه بتونیم این تسک رو انجام بدیم روش‌های متفاوتی در طول زمان استفاده شده. روش‌های اولیه مبتنی بر دانش بودند. به این صورت که یه دیکشنری از اسامی خاص موجود بوده و توی متن باید بر اساس اون اسامی خاص برچسب میخوردن. بعد از اون که یادگیری ماشینی سری توی سرا در آورد سراغ روش‌های بدون نظارت رفتن که این مدل‌ها پیچیدگی زیادی داشتن و کیفیت کار در حد مطلوب نبود. البته علت اینکه ملت سراغ این روش رفتن این بوده که اون موقع داده برچسب خورده مثل امروز فراوون! نبوده ولی امروزه که داده‌های برچسب خورده زیاد داریم بیشتر سراغ روش‌های با نظارت رفتن و از این روش‌ها جواب گرفتن. تا قبل از ظهور یادگیری عمیق از روش‌های آماری استفاده می‌شده که در اون روش‌های نیاز به feature engineering شدید بوده و همین کار رو سخت می‌کرده. علتش هم اینه که توی این حوزه بدست آوردن ویژگی‌هایی برای کلمات که بشه با اونا کلمات رو برچسب اسامی خاص زد خیلی سخته. اما حالا که یادگیری عمیق داریم دیگه این فاز رو به عهده شبکه‌های عصبی گذاشتیم و از شرش خلاص شدیم. البته لازمه که دیتاست‌های قدر قدرتی! داشته باشیم که اون‌ها رو هم معرفی می‌کنیم.

یک سیستم مبتنی بر یادگیری عمیق برای تشخیص اسامی خاص سه قسمت اصلی داره که توی تصویر زیر مشخصه. در ادامه درباره هر یک از این قسمتا توضیحاتی میدیم.

معماری کلی یه سیستم تشخیص اسامی خاص که مبتنی بر یادگیری عمیق هست
معماری کلی یه سیستم تشخیص اسامی خاص که مبتنی بر یادگیری عمیق هست


بازنمایی دیتای ورودی
توی هر مساله پردازش زبان طبیعی یکی از مهم‌ترین قسمت‌ها نحوه ورودی دادن دیتا ست. ورودی مساله ما از جنس کلمات و جمله‌ها هستن اما باید تبدیل به اعداد بشن. اینجا ست که مساله word embedding وارد بازی می‌شه. شاید جا داشته باشه که توی یه پست جدا درباره انواع و اقسام روش‌هاش توضیح بدیم ولی اینجا هم یه سری توضیحات میدیم که در کار خود وا نمانیم!!

یکی از روش‌های رایج، بازنمایی در سطح کلمه ست. برای این کار چندین روش وجود داره که یکی از معروف‌ترین اونها Word2Vec هست که همین روش رو به دو صورت continues bag of words یا CBOW و skip-gram می‌شه انجام داد. تصویر کلی این دو روش رو در زیر می‌بینید. از معایب بزرگ این روش اینه که محتوا رو بازتاب نمیدن. ینی اینکه برای کلمه مثل "شیر" کلا یه بردار ایجاد می‌کنن. اما پر واضحه که این کلمه در context های مختلف می‌تونه معانی متفاوت داشته باشه. از طرفی به برخی ساختارهای زیرکلمه‌ای توی زبان هم توجه نمی‌کنن. اما یه خوبی بزرگی که دارن اینه که معانی رو حفظ می‌کنن. ینی کلمات هم‌معنی برداراشون هم فاصله کمی با هم دارن.

مدل CBOW در سمت چپ که از روی پنجره کلمات اطراف کلمه هدف یه بازنمایی برای کلمه هدف ایجاد می‌کنه و در سمت راست هم مدل skip-gram که از روی یه کلمه مرکزی برای کلمات اطراف اون یه بازنمایی می‌سازه.
مدل CBOW در سمت چپ که از روی پنجره کلمات اطراف کلمه هدف یه بازنمایی برای کلمه هدف ایجاد می‌کنه و در سمت راست هم مدل skip-gram که از روی یه کلمه مرکزی برای کلمات اطراف اون یه بازنمایی می‌سازه.


از روش‌های بازنمایی سطح کلمات که بگذریم می‌تونیم بریم سراغ بازنمایی کلمات در سطح حروف! توی این روش‌های به ویژگی‌های زیرکلمه‌ای یه کلمه توجه می‌شه. از طرفی یکی دیگه از مشکلات بازنمایی سطح کلمه رو که در بالا نگفتیم رو هم نداره و اون کلمات خارج از واژگان هست. توی تصویر زیر نشون دادیم که می‌شه با استفاده از بازنمایی سطح حروف بردار‌های حساس به محتوا تولید کرد. برای این کار از شبکه‌های LSTM یا CNN استفاده می‌شه. البته این روش در مقایسه با روش قبلی که گفتیم طبیعتا به محاسبات بیشتر و همچنین به منابع پردازشی بیشتر احتیاج داره چرا که روش‌های قبلی حتی بعضا جزو یادگیری عمیق هم محسوب نمی‌شن اما توی این روش شما باید یه شبکه عمیق رو آموزش بدید.

حروف به صورت بردار one-hot به یه شبکه LSTM دوطرفه داده می‌شن. دوطرفه بودن باعث می‌شه که اطلاعات پنهان مربوط به محتوا از حرف اول کلمه George تا حرف آخر کلمه Washington در جهت قرمز و اطلاعات پنهان محتوا از حرف آخر کلمه born تا حرف اول کلمه Washington در جهت آبی برای کلمه Washington ذخیره بشه. بعد میان این دو تا بردار رو بهم پیوست میدن.
حروف به صورت بردار one-hot به یه شبکه LSTM دوطرفه داده می‌شن. دوطرفه بودن باعث می‌شه که اطلاعات پنهان مربوط به محتوا از حرف اول کلمه George تا حرف آخر کلمه Washington در جهت قرمز و اطلاعات پنهان محتوا از حرف آخر کلمه born تا حرف اول کلمه Washington در جهت آبی برای کلمه Washington ذخیره بشه. بعد میان این دو تا بردار رو بهم پیوست میدن.


روش‌هایی هم هستن که اومدن بردار کلمه حاصل از دو روش بالا رو بهم پیوست میدن و همزمان استفاده می‌کنن. اما یه تکنیک دیگه ای هم سوار می‌کنن. همون‌طور که اول پست گفتیم قبل از یادگیری عمیق مجبور بودیم فاز مهندسی ویژگی داشته باشیم. اما الان که شبکه عمیق داریم هم دلیل نمیشه اصلا از ویژگی‌هایی که میشه به صورت دستی برای این تسک درآورد استفاده نکنیم! چراااا؟ دلیلش واضحه. چون میتونه فضای جست‌وجو رو برای شبکه عصبی کوچیک کنه و در نتیجه هم سریعتر به کیفیت مطلوب برسه و هم داده کمتری رو مصرف کنه. اما یه مقدار باید باهوش باشیم که بدونیم چه‌طوری اینا رو کنار هم قرار بدیم. توی تصویر زیر معماری این سیستم نشون داده شده. مثلا فرض کنین چند تا فیچر دستی در آوردیم یکی برچسب POS هر کلمه و یکی هم اینکه آیا حرف اولش بزرگ هست یا نه ( توی زبان انگلیسی ) و یکی هم مثلا وجود کسره اضافه بعد از کلمه ( ‌توی زبان فارسی میتونه به تشخیص مرزهای یه کلمه خاص کمک کنه ) . میایم بردار مربوط به این ویژگی‌های دستی رو با بردار حاصل از بازنمایی سطح کلمه و بردار حاصل از بازنمایی سطح حروف هر کلمه پیوست می‌کنیم. بعد این بردار رو به شبکه دوطرفه LSTM میدیم و بعد حالات پنهان خروجی LSTM به طور همزمان به یه شبکه خودرمزنگار و برچسب زننده میدیم. خروجی شبکه خودرمزنگار باید با بردارهای حاصل از ویژگی‌های دستی برابر باشه در نتیجه میزان loss به صورت ترکیبی میتونه حساب بشه و loss هر دو شبکه به صورت همزمان سعی میکنه کمینه بشه. معماری این روش رو هم میتونین توی تصویر زیر ببینین.

معماری نحوه اضافه کردن ویژگی‌های دستی در سیستم تشخیص اسامی خاص
معماری نحوه اضافه کردن ویژگی‌های دستی در سیستم تشخیص اسامی خاص
بازنمایی وابستگی کلمات
همون طور که توی قسمت اول گفتیم بعد از بخش word embeddings نوبت به بخش Generate Representation using Dependencies می‌رسه. توی بخش قبل سعی کردیم هر کلمه رو به یه بازنمایی عددی تبدیل کنیم. اما برای اینکه بتونیم مساله رو کامل حل کنیم به یه سری اطلاعات دیگه هم نیاز داریم. جملات توی زبان طبیعی دنباله‌ای از کلمات هستن و به عبارت دیگه هر دنباله‌ای از کلمات توی زبان طبیعی نمی‌تونه معنی‌دار باشه. همین موضوع ینی اینکه توی وابستگی بین کلمات هم اطلاعاتی نهفته ست. پس باید بتونیم از این وابستگی‌ها هم استفاده کنیم. طبعا اولین گزینه‌ای که به ذهن میرسه استفاده از RNN هست اما میدونیم که با مشکل فراموشی بردار گرادیان مواجه می‌شیم. به خاطر همین از LSTM استفاده می‌شه. در واقع خروجی‌های فاز قبلی که بازنمایی کلمات هستن رو میشه به شبکه‌های LSTM داد و با استفاده از اونها وابستگی بین کلمات رو کپچر کرد. اما طبیعتا استفاده از این نوع شبکه‌ها امکان موازی سازی رو از ما می‌گیره که همین می‌تونه نقطه ضعف این روش باشه. به خاطر همین سعی شده تا از شبکه‌های کانولوشنی هم استفاده بشه. در این روش با استفاده از بردار N بعدی برای هر کلمه و جمله متناظر اون وابستگی بین داده‌ای بازنمایی می‌شه. البته این مدل‌ها توی پردازش جملات طولانی به مشکل میخورن که برای مقابله با این مشکل مدل Iterated Dilated Convolutions معرفی شده. ID-CNN ها به صورت عمق ثابت به طوری که طول موثر ورودی به صورت نمایی با این عمق رشد کنه طراحی شدن. بر خلاف LSTM که پیچیدگی محاسباتی اون به صورت خطی همراه با طول ورودی رشد می‌کنه این شبکه می‌تونه به صورت موازی عملیات پردازش روی جمله‌ها رو انجام بده. در عمل نشون داده شده که سرعت این شبکه در حدود ۱۴ الی ۲۰ برابر شبکه‌های LSTM هست در حالیکه دقت این شبکه فقط کمی بدتر از LSTM هست. در زیر میتونید معماری این نوع شبکه‌ها رو ببینید.

یک بلوک ID-CNN که طول فیلتر آن ۳ و عمیق آن ۴ است. با این بلوک یک جمله حداکثر ۱۵ کلمه‌ای رو میشه پردازش کرد.
یک بلوک ID-CNN که طول فیلتر آن ۳ و عمیق آن ۴ است. با این بلوک یک جمله حداکثر ۱۵ کلمه‌ای رو میشه پردازش کرد.
اما در نهایت با ظهور و بروز ترنسفورمر‌ها کلا بازی عوض شد! این شبکه‌ها تنها با درنظر گرفتن مکانیزم توجه می‌تونن وابستگی‌های داده‌ای رو منظور کنن. بردار توجهی که از داده ورودی به دست می‌آد رو می‌شه به صورت موازی به دست آورد و بعد این بردار رو به یه شبکه fully connected داد تا فضای ورودی رو انکود کنه. بردار توجه یه کلمه به صورت زیر به دست میاد:


برای اینکه ترنسفورمرها رو بهتر بفهمید توصیه میکنم حتما این سری پست‌ها رو مطالعه کنین. برای اینکه تشخیص اسامی خاص انجام بشه با استفاده از بخش انکودر توی ترنسفورها فضای ورودی رو انکود می‌کنن و بعد با استفاده از یه شبکه برچسب‌زن کار برچسب زدن رو انجام می‌دن.

یه پیاده سازی خوب از ترنسفورمر‌ها، BERT هست. برت یه معماری عمومی با استفاده از ترنسفورمر هست که میشه به تسک‌های مختلفی توی حوزه پردازش زبان طبیعی اون رو اپلای کرد. برای این کار باید فرمت ورودی و خروجی برت رو بشناسین و همچنین روی دیتای موردنظرتون اون رو fine-tune بکنین. توی تصویر زیر نحوه ورودی دادن به شبکه برت توی یه تسک NER رو میتونین ببینین.

Designed By Powered by Bayan