Перейти к публикации
tseries

Идея касательно форка ( изменить сам принцип генерации блоков)

Рекомендованные сообщения

(изменено)

Возникла у меня идея так ради эксперимента реализовать альт коин но не простой  а на основе рандома и его энтропии.

Идея из черновика как это должно выглядеть. У нас есть рандомные данные с высокой энтропией на основе них мы генерируем хеш блока и проверяем этот же хеш на энтропию и снова проверяем самим уже блокчейном энтропию хеша , если она попадает под наши нормы - майнер получает награду. Сложность же заключает в количестве рандомной даты с хорошей энтропией на вход ( её нужно будет больше когда сложность будет расти )  как её майнить ? Берем dev/random , звуковую, радио, все что шумит рнд и майним + устройства в отличии от тех же асиков при высокой сложности применимы для  криптографии.

 

Чем же хороша сложность в виде количества данных ? Генерация рнд с хорошей энтропией проходящие все тесты очень медленный процесс, пример тому постоянная нехватка данных в dev/random на серверах для разного рода стойких крипто. 

еще появятся уникальные майнеры которые можно будет установить прямо на сайтах для сборки энтропии с пользователей добывая тем самым рнд  :D 

Вероятно такое  уже было и я не нашел, так как давно не следил за тем что творится в среде крипты ( лежал в больнице и сразу извиняюсь перед тем кому не отвечал в лс по вопросом гайда по дашу, да и он уже вероятно давно потерял актуальность )

Прошу советов, критики , и идей. Все таки чистый рандом есть основа криптографии всей, даже если сам эту затею заброшу. Может быть кто то другой подхватит идею и в недалеком будущем увидим нечто новое и интересное.

Изменено пользователем Lexis77

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Где то мелькало что весь рандом на процессорах не такой уж и рандом.... что его вполне можно просчитать.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Где то мелькало что весь рандом на процессорах не такой уж и рандом.... что его вполне можно просчитать.

 

 

в том то и дело что использован будет  "настоящий рандом" из так называемого белого шума. Процессор не как не даст рандом, там все программно и нет энтропии...

 

Вот к примеру чучуть "настоящего рандома" с обычной звуковой, попробуй сжать архиватором  самый простой тест  :)   

 

или этот тестовый пакет http://www.fourmilab.ch/random/

 

для теста просто используем обычный батник заполненный так

ent.exe file.rnd > log.txt 

Пример теста небольшого количества данных.

Entropy = 7.998888 bits per byte.

Optimum compression would reduce the size
of this 152382 byte file by 0 percent.

Chi square distribution for 152382 samples is 235.68, and randomly
would exceed this value 80.19 percent of the times.

Arithmetic mean value of data bytes is 127.5886 (127.5 = random).
Monte Carlo value for Pi is 3.154545812 (error 0.41 percent).
Serial correlation coefficient is 0.000167 (totally uncorrelated = 0.0).


file.zip

Изменено пользователем tseries

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Чем это принципиально лучше для сообщества, чем текущие алгоритмы PoW?

Как надежно проверять энтропию, и есть ли мат.модель, показывающая что тут нельзя читерить?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Чем это принципиально лучше для сообщества, чем текущие алгоритмы PoW?

Как надежно проверять энтропию, и есть ли мат.модель. показывающая что тут нельзя читерить?

 

Первое  - устройства созданные для генерации рандома не станут хламом, так как применяются в сильных крипто-алгоритмах. Где не случайные данные не приемлемы.

 

Во вторых просто нечто новое.  

 

Касательно "читерства", не один программный код рандомазиции не даст хорошей энтропии в достаточном количестве. В этом и вся сложность генерации новых блоков.

 

Выше утилита есть с кучей тестов, тестов на самом деле много. 

 

Вот к примеру еще http://csrc.nist.gov/groups/ST/toolkit/rng/documentation_software.html

 

Кто муже математика это закономерность, а рандом это хаос, тоесть в данном случае мы получать будем не закономерность а большею хаотичность )

 

 

 

Там же и описание что тесты делают. В  двух словах это довольно таки тяжело объяснить , легче почитать что такое аппаратный гчс. 

 

Тесты с открытым исходным кодом, все формулы можно изучить.  Да и до реализации еще далеко, пока идет изучение в каком виде лучше все это "прикрутить"

Изменено пользователем tseries

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Крутая идея!!! Есть еще информация на этот счет? 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Крутая идея!!! Есть еще информация на этот счет? 

Пока все на уровне размышлений и теорий.  В первою очередь нужно решить как лучше использовать рандом данные,  и как при этом избежать размера блок чейна в пару пета/зета байт на высоких сложностях, хотя к тому времени и сам BTC вероятно будет уже с блочейном в пару петабайт и носители будут по 200 сотни Пб.

Изменено пользователем tseries

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

и как вообще определять качество энтропии ?
Как понять какой набор энтропистее ?
Этот ?

9087049148
9404141267
5773503986
2514618271
1034968330
9294207586
3310937697
4520253283
1891779731
1136426001


Или этот ?

7297566406
9641210840
4845811824
6638781679
2277949633
1337042462
7066787041
4145600531
3470898097

6205020221

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

будет аппаратный генератор, например видеокамера, снимающая воду или огонь.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

для первого 

Entropy = 3.286435 bits per byte.

Optimum compression would reduce the size
of this 100 byte file by 58 percent.

Chi square distribution for 100 samples is 2582.88, and randomly
would exceed this value less than 0.01 percent of the times.

Arithmetic mean value of data bytes is 52.2600 (127.5 = random).
Monte Carlo value for Pi is 4.000000000 (error 27.32 percent).
Serial correlation coefficient is 0.037634 (totally uncorrelated = 0.0).

для второго

Entropy = 3.263340 bits per byte.

Optimum compression would reduce the size
of this 100 byte file by 59 percent.

Chi square distribution for 100 samples is 2654.56, and randomly
would exceed this value less than 0.01 percent of the times.

Arithmetic mean value of data bytes is 52.2700 (127.5 = random).
Monte Carlo value for Pi is 4.000000000 (error 27.32 percent).
Serial correlation coefficient is 0.073525 (totally uncorrelated = 0.0).

В любом случае это не рандом или слишком мало данных для вменяемого результата теста.

 

Первый лучше в данном случае.

Для NIST данных слишком мало. Там тесты требуют хотя бы по 500 кб для точного результата.


будет аппаратный генератор, например видеокамера, снимающая воду или огонь.

Рандом рандому рознь, не обязательно даст качественною энтропию вода или огонь. Легче сразу на телик направить и снимать, но таким данным надо пост обработка, и в итоге скорости это особо не придаст. 

 

Вариантов очень много откуда брать rnd, но пройдет ли оно тесты вопрос уже другой.

 

Вон к примеру тот же рандом орг и сервис основанный на  распаде атома. Дак там жесткие квоты на данные, а рандом орг и вовсе халтурит, перекручивая уже полученный данные с первого запроса  различными алгоритмами.

Изменено пользователем tseries

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!

Зарегистрировать аккаунт

Войти

Уже зарегистрированы? Войдите здесь.

Войти сейчас

  • Сейчас на странице   0 пользователей

    Нет пользователей, просматривающих эту страницу.

×