Вопрос был про бэкапы в целом, но у меня это еще зависит от сохраняемого контента. Например, если есть веб-сайт с подгружаемыми изображениями, возможно - изменяемыми страницами, и базой данных, то я автоматически сохраняю все это в git. Ежесуточно делается дамп базы в SQL + какие-то картинки добавились, что-то поменялось. Все это коммитится в гит репо, который потом дублируется на удаленный сервер (push/pull - как кому удобнее). Достоинства - сохраняются только дельты, что привычно. Но для базы данных выигрыш куда интереснее - дельты, как правило, гораздо компактнее всей базы. И при этом при достаточного размера базе и умеренном количестве добавлений в сутки репозиторий базы за год может быть размера пары дампов (гит сжимает контент) - но при этом можно достать базу по состоянию на любые сутки за всю ее историю. Иногда очень выручает. А компактность такого представления и то, что репозитории git легко клонируются, снимает вопрос о месте хранения - можно хранить где угодно - на своем же сервере git, например, на коммерческим git провайдере. На удаленном диске (обновление - git pull - и новая копия у нас в кармане).