новые фичи в Google photos. Скоро уже достигнет былой крутизны, когда их оторвали от Google+
Eugene S
+ Vladimir Yakunin Может доживём, когда и Google Drive починять? А то купил платную подписку на 1TB и обнаружил тягчайший факап - файлы размером больше ~15GB - заливаются битыми (через хром) md5-checksum (который можно получить через API) и локальный трагически не совпадает сколько не повторяй экспримент. Сплитишь на чанки по 10GB - все ровно. Залез в Forum Help Center по Drive - а я там не новенький. Но похожим тредикам про кривые чексуммы файлов уже больше года - и они оперативно банятся и закрываются. Имел неудовольствие общаться с суппортом - отписки и бред. Владимир, можно как-то узнать в чем действительно причина? Почему файлы больше 15GB размером - заливаются битыми? (Если что, то Ubuntu Linux, Google Chrome (прориетарный с оф.сайта), юзаю исключительно веб-интерфейс. Dropbox - бы взял, но там нет удаленной чекалки контрольной суммы. Надоест - психану и куплю Amazon Glacier для хранения - деньги те же, но там всё хорошо с контрольной суммой, sha-256 кусков и все такое.
Vladimir Yakunin
а если назад скачать, совпадает?
Eugene S
+ Vladimir Yakunin если верить тому, что пишет народ в аналогичной ситуации (когда файл больш.опр.размера) - то данные реально портятся (т.е. при скачивании другой md5) - но я сам лично поленился проверить. Попробую специально повторить полный эксперимент. Причем, есть подозрение что бесплатный лимит на 15GB как-то связан c "размером" какого-нить "супер-пупер-google-fs" блока (или как там это всё в облаке) - и глюк когда файл выползает за размеры этого блока. Во всех случаях использовал файл - вида blob-binary, т.е. криптоконтейнер, без намека на какой-то mime-type. Ок, я попробую провести полный эксперимент. Может удастся наконец как-то дать повляить или получить фидбек. А то, как миниму это технический позор, а как максимум - обидно платить денег за такой сервис.
Vladimir Yakunin
ну я достоверно знаю, что суперпупер гуглфс поддерживает файлы больше 15 гб :-) Если такой баг есть и воспроизводится, то это очень стремно
Eugene S
+ Vladimir Yakunin я 3 раза пробовал, в разное время с разными размером файлами. Все 3 одинаковый результат. Ниже опр.размера - ок, выше - привет. Попробую попозже прокрутить полный эксперимент снова с ~32 GB blob-binary файликом. Но я смотрел, постить баг некуда. Support сначала засыпает ответами ботов (которые кстати релевантнее )), потом "барышни" отвечают какую-то ерунду в стиле "переустановите windows" - при том, что я изначально четкий расклад по сигнатуре моего окружения - и что malware-фактор исключен на 99.99% А bug bounty по таким категориям глюков как я понял нет.
Vladimir Yakunin
да, bounty дают за уязвимости в безопасности, тут если она и есть, то ее надо продемонстрировать. Я попробую, оказалось, что даже сгенерировать 20 гб занимает время :-)
Vladimir Yakunin
примерно минута на гигабайт уходит, как это быстро делать?
Eugene S
+ Vladimir Yakunin truecrypt volume (as file) например создать - он быстро генерит. Я уже считаю в данный момент md5sum ~32GB файла. Так, что, да было бы круто попробовать эксперимент вместе. truecrypt.org (хотя он вроде устарел)... а так ибо что-то вроде /dev/urandom >> blobfile.dat - наверное действительно медленно будет. Нет смысла, как кажется, в высокой энтропийности данных. Можно например фильм попобовать взять и попортить ему пару килобайт начальных данных, и переименовать в .dat
Eugene S
+ Vladimir Yakunin еще можно послайсить какой-то большой файл на 1GB куски, переименовать куски и собрать в произвольном порядке, типа: че нить типа такого $ split -a 1 -d -b 1GB sample.dat sample.dat.part $ cat sample.dat.part* > sample.new.dat Но честно говоря не вижу в этом смысл (сначала бы просто проверить гипотезу большого файла, а потом уже о том, что она срабатывает именно на данных с высокой энтропией без mime-type) Ибо фиг знает какие там фильтры/компресси и "оптимизации" при загрузке - может там где-то и спотыкается.
Eugene S
+ Vladimir Yakunin в общем, локальную сумму я посчитал, теперь весь тест завершу не раньше, чем часа через 3... esimated upload ~1.5 hour и download наверное так же.
Eugene S
+ Vladimir Yakunin блин походу починили! До этого стабильно 21-30GB файл выдавал кривой md5sum, а сейчас все сходится. Это вот прекрасно, если правда. Следующий на 100 GB закачаю (с которым у меня точно проблемы были) и тогда можно спать спокойно.
Vladimir Yakunin
:-) обращайтесь
Eugene S
+ Vladimir Yakunin да ладно? Хотите сказать что "чегой-то-сделали" или "эффект присутствия"? :) я просто давно не проверял (пару месяцев назад точно был глюк - условия не менял) - интересно когда починили...неужели только что? :)
Vladimir Yakunin
эффект присутствия
Eugene S
+ Vladimir Yakunin значит все таки починили, просто раньше, потому, что проблема была замечена не только мной. А вот по теме поста (Фотки) жаль убили legacy-сервис = picasaweb.google.com оставив взамен аутентичный get.google.com (для управления медиа-контентом G+). Раньше можно было невозбранно, что-то перетасовать из G+ Альбомов в Фотки.Альбомы, а теперь их можно только скачать и потом загрузить на Фотки. Эх..