AI




https://github.com/reedscot






FAIR has co-authors on 14 papers accepted at ICLR 2017:

- Learning End-to-End Goal-Oriented Dialog by Antoine Bordes, Y-Lan Boureau, Jason Weston https://openreview.net/forum?id=S1Bb3D5gg
- Towards Principled Methods for Training Generative Adversarial Networks by Martin Arjovsky, Leon Bottou https://openreview.net/forum?id=Hk4_qw5xe
- Multi-Agent Cooperation and the Emergence of (Natural) Language by Angeliki Lazaridou, Alexander Peysakhovich, Marco Baroni https://openreview.net/forum?id=Hk8N3Sclg
- Improving Neural Language Models with a Continuous Cache by Edouard Grave, Armand Joulin, Nicolas Usunier https://openreview.net/forum?id=B184E5qee
- Unsupervised Cross-Domain Image Generation by Yaniv Taigman, Adam Polyak, Lior Wolf https://openreview.net/forum?id=Sk2Im59ex
- Episodic Exploration for Deep Deterministic Policies for StarCraft Micromanagement by Nicolas Usunier, Gabriel Synnaeve, Zeming Lin, Soumith Chintala https://openreview.net/forum?id=r1LXit5ee
- Tracking the World State with Recurrent Entity Networks by Mikael Henaff, Jason Weston, Arthur Szlam, Antoine Bordes, Yann LeCun https://openreview.net/forum?id=rJTKKKqeg
- Variable Computation in Recurrent Neural Networks by Yacine Jernite, Edouard Grave, Armand Joulin, Tomas Mikolov https://openreview.net/forum?id=S1LVSrcge
- Automatic Rule Extraction from Long Short Term Memory Networks by W. James Murdoch, Arthur Szlam https://openreview.net/forum?id=SJvYgH9xe
- Dialogue Learning With Human-in-the-Loop by Jiwei Li, Alexander H. Miller, Sumit Chopra, Marc'Aurelio Ranzato, Jason Weston https://openreview.net/forum?id=HJgXCV9xx
- Learning through Dialogue Interactions by Jiwei Li, Alexander H. Miller, Sumit Chopra, Marc'Aurelio Ranzato, Jason Weston https://openreview.net/forum?id=rkE8pVcle
- Revisiting Classifier Two-Sample Tests by David Lopez-Paz, Maxime Oquab https://openreview.net/forum?id=SJkXfE5xx
- Energy-based Generative Adversarial Networks by Junbo Zhao, Michael Mathieu, Yann LeCun https://openreview.net/forum?id=ryh9pmcee
- Entropy-SGD: Biasing Gradient Descent Into Wide Valleys by Pratik Chaudhari, Anna Choromanska, Stefano Soatto, Yann LeCun, Carlo Baldassi, Christian Borgs, Jennifer Chayes, Levent Sagun, Riccardo Zecchina https://openreview.net/forum?id=B1YfAfcgl

(complete list of accepted ICLR papers here: https://openreview.net/group?id=ICLR.cc/2017/conference )
























Here, I try to maintain some notes about what I already know about like:
Logics
Theorem proving
Model checking
Term Rewriting
Graphical Learning and Search
(Un)Supervised Learning
and etc.
and what I learn like Self Organizing Maps, and who knows what's next!

Time

Days Pass By

http://www.youtube.com/user/beratali

اولین کاری که می‌خواهید بکنید این است که اگر ربات شما را دید خرناسه بکشد اما اگر غریبه‌ای را مشاهده کرد با صدای بلند عوعو کند. فعلاً فرض می‌کنیم که ربات توانایی تولید آن صداها را دارد اما هنوز چهرهٔ شما را یاد نگرفته‌است. پس کاری که می‌کنید این است که جلوی چشم‌های‌اش قرار می‌گیرید و به کمک کنترل از راه دورتان به او دستور می‌دهید که چهره‌ای که جلوی‌اش می‌بیند را با خرناسه‌کشیدن مربوط کند. این‌کار را برای چند زاویهٔ مختلف از صورت‌تان انجام می‌دهید تا مطمئن باشید که ربات در صورتی که شما را از مثلاً نیم‌رخ ببیند به‌تان عوعو نکند. هم‌چنین شما چند چهرهٔ غریبه نیز به او نشان می‌دهید و چهرهٔ غریبه را با دستور عوعوکردن مشخص می‌کنید. در این حالت شما به کامپیوتر ربات گفته‌اید که چه ورودی‌ای را به چه خروجی‌ای مربوط کند. دقت کنید که هم ورودی و هم خروجی مشخص است و در اصطلاح خروجی برچسب‌دار [۱] است. به این شیوهٔ یادگیری، یادگیری بانظارت [۲] می‌گویند.

اینک حالت دیگری را فرض کنید. برخلاف دفعهٔ پیشین که به ربات‌تان می‌گفتید چه محرک‌ای را به چه خروجی‌ای ربط دهد، این‌بار می‌خواهید ربات خودش چنین چیزی را یاد بگیرد. به این صورت که اگر شما را دید و خرناسه کشید به نحوی به او پاداش دهید (مثلاً به کمک همان کنترل از راه دورتان) و اگر به اشتباه به شما عوعو کرد، او را تنبیه کنید (باز هم با همان کنترل از راه دورتان). در این حالت به ربات نمی‌گویید به ازای هر شرایطی چه کاری مناسب است، بلکه اجازه می‌دهید ربات خود کاوش کند و تنها شما نتیجهٔ نهایی را تشویق یا تنبیه می‌کنید. به این شیوهٔ یادگیری، یادگیری تقویتی [۳] می‌گویند.

در دو حالت پیش قرار بود ربات ورودی‌ای را به خروجی‌ای مرتبط کند. اما گاهی وقت‌ها تنها می‌خواهیم ربات بتواند تشخیص دهد که آن‌چه می‌بیند (یا می‌شنود و...) را به نوعی به آن‌چه پیش‌تر دیده‌است ربط دهد بدون این‌که به طور مشخص بداند آن‌چیزی که دیده شده‌است چه چیزی است یا این‌که چه کاری در موقع دیدن‌اش باید انجام دهد. ربات هوش‌مند شما باید بتواند بین صندلی و انسان تفاوت قایل شود بی‌آنکه به او بگوییم این نمونه‌ها صندلی‌اند و آن نمونه‌های دیگر انسان. در این‌جا برخلاف یادگیری بانظارت هدف ارتباط ورودی و خروجی نیست، بلکه تنها دسته‌بندی‌ی آن‌ها است. این نوع یادگیری که به آن یادگیری بی نظارت [۴] می گویند بسیار مهم است چون دنیای ربات پر از ورودی‌هایی است که کس‌ای برچسب‌ای به آن‌ها اختصاص نداده اما به وضوح جزیی از یک دسته هستند.

یادگیری بی‌نظارت را می‌توان به صورت عمل کاهش بعد [۵] در نظر گرفت.


Master DL on Twitter


Morteza Shahriari Nia on Twitter






Comments