Решение задачи MaskedLM с помощью библотеки

Добрый день! Хотелось бы узнать можно ли как-нибудь решить задачу с пропуском слов (Masked Language Model) используя возможности библиотеки и модель RuBert? Суть задачи такова: обучиться на своем наборе специфических русскоязычных текстов. И затем получить метрики: насколько точно она справилась с распознаванием пропущенных (mask) слов.
Еще насколько я понял у transformer есть класс “BertForMaskedLM”, который потенциально может помочь в решении задачи.
Заранее спасибо за ответ