Перейти к публикации

Блоги

 

Стратегия 50/50

Возможно ли инвестировать в биткойн и/или другие криптоактивы, извлекать прибыль и не переживать из-за непредсказуемых движений рынка?   Рынками движут жадность и страх.
Что бы обуздать эти эмоции можно их смешать в равных пропорциях.  Предлагаю применить стратегию 50/50. Используя ее вы не будете сильно переживать о движении рынка
как вниз, так и вверх. 
Так же у вас ВСЕГДА будут средства
как для покупки, так и для продажи!   Суть стратегии очень проста. Допустим у вас есть 1000 USD для инвестиций.
Вы покупаете криптоактив(ы) на половину от этой суммы (500) Допустим, что вы купили 0.1 BTC по цене 5000 
(для простоты пока не учитываем комиссию)
а цена опустилась до 4000   Получилось, что оставшиеся у вас 
500 > (0.1 BTC х 4000 = 400) на 100
Согласно данной стратегии выравниваем сумму  USD и BTC ( в USD)
Для этого получившуюся разницу 100 делим пополам и докупаем BTC 
на 50  (50 / 4000 = 0.0125) Теперь у нас 450 = 500 - 50  и  0.1125  =  0.1 + 0.0125 (х 4000 = 450)  50/50   Допустим цена BTC опустилась до 3000 и снова возникло неравенство
450 > 0.1125 х 3000 = 337.5 
выравниваем
450 - 337.5 = 112.5 
покупаем половину
112.5 / 2 = 56.25  
56.25 / 3000 = 0.01875
Теперь у нас 
450 - 56.25 = 393.75 
и 
0.1125 + 0.01875 = 0.13125  (х 3000 = 393.75)  
50/50   Предположим рынок пошел вверх и BTC вырос до 4000
возникло неравенство 393.75 < 0.13125 х 4000 = 525
выравниваем
525 - 393.75 = 131.25
продаем половину
131.25 / 2 = 65.625
65.652 / 4000 = 0.01640625
получилось
393.75 + 65.625 = 459.375
и
0.13125 - 0.01640625 = 0.11484375 (х 4000 = 459.375)
50/50   Допустим BTC поднимается до 5000, баланс неравен 
459.375 < 0.11484375 (х 5000 =  574.21875) 
выравниваем
574.21875 - 459.375 = 114.84375
продаем половину
114.84375 / 2 = 57.421875
57.421875 / 5000 = 0.011484375
получаем
459.375 + 57.421875 = 516.796875
и
0.11484375 - 0.011484375 = 0.103359375 (х 5000 = 516.796875)
50/50   Таким образом мы получим прибыль около 5% 
(учитывая комиссию биржи)    Если выравнивать баланс не дифференциально, как в примере,
а допустим при 5000, 4500, 4000, 3500, 3000, 4000, 5000 
или при 5000, 4000, 3000, 3500, 4000, 4500, 5000 
то прибыль будет меньше...   Пробуйте, экспериментируйте и берегите нервы.
 

ki6ers

ki6ers

Итоги года 2018 от trade-mate.io

Текущий 2018 год отметился красным цветом на криптовалютном рынке - многие любители легкого заработка так же быстро покинули свои биржи на Binance и Exmo, как и регистрировались на них, покупая BTC по $20к, а спустя 3 месяца устроив распродажу своих монет по минус Х2-Х3. Асики с фермами, купленные за баснословные деньги,  видимо, не отобьют закупочную цену, точно не в этом году. Так кто же из оставшихся на рынке, меньше всего пострадал от резкого падения цены и даже смог заработать на ней, правильно войдя в позицию short? Верно, трейдеры. У этих ребят логика крайне проста – если что-то движется вверх и вниз и у «этого» есть отображение на графике в Tradingview, то на этом можно заработать, имея определенный набор знаний.   Ежесуточный оборот рынка криптовалют составляет 10-12 млрд долларов США, причем добрая половина этого оборота производится не на биржах (из-за их ограниченного функционала и отсутствия элементарной интуитивности использования), а с помощью торговых ботов и других систем автоматизации торговли, которых, в последнее время, можно насчитать около десятка только на российском рынке.   Одной из таких платформ является trade-mate.io, разработкой которой мы занимались на протяжении последних 7 месяцев. Мы сделали продукт а как для daily трейдеров, так и для новичков в области торговли.  Для опытных спекулянтов наш сервис предоставляет ряд функций Smart Trade, таких как: - Одновременное выставление до 5 Take Profit и Stop Loss прямо на графике; - Trailing механизмы (если ваша задача достигла необходимого уровня цены, но продолжает идти вверх, то сервис не продает монету, получая максимальную выгоду для пользователя); -  Функция усреднения цены покупки, для ускорения выхода в ноль по сделке; -  Dashboard, который пользователь может настроить как ему удобно; - Подробная статистика всех сделок, с точками входа и продажами. Также полезным является и возможность пользования графиком Tradingview на платформе, с функцией сохранения настроек под пользователя.      Для новичков или людей, которые любят получать подсказки от опытных трейдеров была разработана функция Auto Trade, в которой пользователь платформы trade-mate.io подписывается на понравившийся ему канал с сигналами от профессиональных трейдеров и следует за его сделками в автоматическом режиме.    Покажем «на пальцах»: вы подключили к платформе криптовалютный портфель, оценочная стоимость которого составляет 100$, выбираете 2 канала с сигналами с лучшей статистикой и указываете в настройках, что на каждый канал вы даете по 50% от депозита, а также, что на каждый сигнал по 10% от получившегося лимита, таким образом, на каждый полученный сигнал вы будете вкладывать около $5.    В ближайшие дни мы запустим новогоднюю акцию,  поэтому, рекомендуем подписаться на телеграм канал и следить за  новостями в телеграм чате   Удачной торговли, Trade mate team 😉       

trademateio

trademateio

GPU-кластеры ComBox для решения наукоемких задач. Инновационные технологии, способные перевернуть мир

ComBox Technology — международная компания, разработчик и производитель GPU-кластеров и мобильных ЦОД с иммерсионным охлаждением для решения наукоемких задач.     Мы производим GPU-кластеры и мобильные ЦОД с иммерсионным (жидкостным) охлаждением, которые применяются для решения наукоемких задач в секторах B2B/B2G.  
Мы разработали собственную уникальную технологию двухфазного иммерсионного охлаждения, за счет применения которой мы добились высокой плотности установки видеокарт.     Теперь там, где помещалось ранее 8 видеокарт, мы размещаем 96, а в контейнер легко помещается 960 штук.     960 видеокарт в параллельных вычислениях — это 1,92 миллиона векторных арифметическо-логических устройств (векторных АЛУ), что сравнимо по мощности с имеющимися суперкомпьютерами, стоимость которых в разы выше.   Форм-фактор наших решений — это 20-футовые контейнеры, которые легко монтируются в точки с минимальной стоимость электроэнергии и мобильны.     Применяя самые современные технологии на программно-аппаратном уровне, мы научились распараллеливать задачи внутри GPU на векторных АЛУ, между GPU в рамках 1 системы и между разными системами. Применяя универсальный интерфейс для постановки задач, наши решения легко масштабируются и позволяют значительно увеличить скорость в параллельных вычислениях.   Решения ComBox — это не просто контейнеры и софт, это целая комплексная технологическая экосистема для параллельных вычислений. Будущее, доступное уже сегодня!   Мы предлагаем схему аренды вычислительных мощностей для решения наукоемких задач.     Все используемое в мире программное обеспечение — разное и проприетарное. Нет унифицированных решений, а существующие CPU-кластеры — медленны и неэффективны в параллельных вычислениях. В подавляющем большинстве случаев требуется адаптация конкретной научной модели под существующие кластеры. А это неудобно, долго и требует наличия штатных специалистов, постоянное содержание которых — дорого. По этой причине огромное количество потенциально востребованных мощностей простаивает, а задачи, которые могли бы уже быть решены и дать мировую новизну и технологический прорыв компаниям и мировым научным институтам — откладываются. Мы, люди, сами остановили движение прогресса вперед!   Мы применяем схему с подменой и унификацией библиотек OpenCL/Vulcan/CUDA, которые используются при взаимодействии с видеокартами практически во всех решениях. За счет унификации интерфейсов без вмешательства в разные программные комплексы мы получаем возможность интеграции расчетов на наших кластерах во всем софте в мире за один раз. Для решения проблем версионности библиотек мы разработали универсальный коннектор, поддерживающий как новые методы, так и их deprecated-экземпляры. Это позволяет подменять библиотеки разных версий и транслировать на оригинальный вариант библиотеки — локальный расчеты, а для кластерных расчетов — передавать данные дальше.     Фактически, не изменяя исходный код применяемых годами научных программных комплексов, мы интегрируем в них кластерные параллельные вычисления на GPU, выполняемые удаленно и легко масштабируемые в зависимости от конкретной задачи.   Если ранее у вас была одна видеокарта для расчетов, то сейчас одним кликом мышки вы можете подключить еще 900 или 9000 штук. Если раньше расчет делался месяцами, то теперь он может быть выполнен за 1 минуту. Преимущества наших решений Применение видеокарт для параллельных вычислений Наличие возможности распараллеливания задач в реальном времени Возможность интеграции кластерных вычислений на GPU в существующие программные комплексы без их модификации Высокая плотность установки видеокарт Пожаробезопасность и отказоустойчивость всех решений Страхование аппаратных решений от основных рисков Низкое энергопотребление и высокая энергоэффективность (PuE = 1.05) Решение опробовали и поддержали Научный сектор: Александр Васильевич Гарабаджиу, доктор химических наук, профессор, проректор по научной работе Санкт-Петербургского государственного технологического института, СПбГТИ. Владимир Анатольевич Сабельников, доктор, профессор Французской аэрокосмической лаборатории ONERA, ведущий ученый ONERA DEFA — отдела фундаментальной и прикладной энергетики. Александр Михайлович Чуднов, математик, профессор, доктор технических наук. Образовательный, B2G и B2B-сектора: ONERA. The French Aerospace Lab Université de Pau et des Pays de l’Adour (UPPA) University of Rouen Normandy Санкт-Петербургский государственный технологический институт Центральный аэрогидродинамический институт имени профессора Н. Е. Жуковского 3M Russia     Подробнее о решениях ComBox — https://combox.io/ru/

ComBox

ComBox

Установка sentinel на windows

Данная статья проверялась на Windows 10 x64 и монетах ZOC и BPG работает без проблем. Сначала запускаем кошелек синхронизируем полностью его, дальше стартуем мастерноду и переходим к настройке Sentinel. Скачиваем файл http://rgho.st/6kvH7HpS7 запускаем его со следующими параметрами: sentinel-win64.exe --config C:\Users\Administrator\AppData\Roaming\ZeroOneCore\zeroone.conf --rpc-port 11458
--config - указываем путь до файла конфига кошелька. --rpc-port - указываем rpc порт который используется в кошельке.

YaKorshun

YaKorshun

Быстро и удобно не только на словах

Уважаемые пользователи, хотим поделиться с вами некоторой статистикой. Ведь ранее мы об этом никогда не говорили.    Удобство пользования сервисом и скорость обмена — вот основные приоритеты нашей команды.  Мы придумали и разработали уникальную систему обмена как снаружи, так и изнутри.    Уникальность Bitok.cc заключается в самом процессе обмена — собственном чате 💬Первым, среди всех сервисов в России. Создать обмен можно в 4 клика и вы уже в чате с оператором. Это очень просто и удобно. Кстати, в чате теперь доступны эмоджи, функция «Копировать сообщение» — вы не ошибётесь при вводе реквизитов, и большие изменения в безопасности и анонимности общения.    Также мы разработали собственную, уникальную систему обработки обменов, благодаря чему, например обмен Сбербанк — биткоин, начинаются уже от 8 секунд, с момента получения оплаты. Это абсолютный рекорд на рынке.    Сейчас мы работаем над новой системой обработки обменов. При помощи неё наш с вами процесс обмена будет занимать уже от 3-х секунд! Кажется, что быстрее некуда. 😂 Мы обязательно уведомим вас о переходе на новую систему и будем рады обменяться с вами самым быстрым способом в России.
Спасибо всем, кто выбирает нас каждый день! Спасибо за каждый оставленный отзыв 😍Для нас это очень ценно. Мы будем продолжать удивлять и радовать вас, ведь всё только начинается и у нас есть много интересных задумок, которые вы по-настоящему оцените.    С 💙, команда Bitok.cc

Bitokcc

Bitokcc

Секреты невозможных вычислений

Развитие CPU Первый процессор, получивший действительно массовое распространение – это 8086 от компании Intel, разработанный в 1978 году. Тактовая частота работы 8086 составляла всего 8 МГц. Спустя несколько лет появились первые процессоры внутри которых было 2, 4 и даже 8 ядер. Каждое ядро позволяло выполнять свой код независимо от других. Для сравнения — современный процессор Intel Core i9-7980XE работает на частоте 2,6 ГГц и содержит 18 ядер. Как видите — прогресс не стоит на месте! Развитие GPU Одновременно с развитием центральных процессоров развивались и видеокарты. В основном их характеристики важны для компьютерных игр, там новые технологии проявляются особенно красочно и рендеринг 3D картинки постепенно приближается к фотографическому качеству. В начале развития компьютерных игр расчет картинки выполнялся на CPU, но вскоре был достигнут предел изобретательности разработчиков 3D-графики, ухитрявшихся оптимизировать даже очевидные вещи (хороший пример тому — InvSqrt()). Так, в видеокартах стали появляться сопроцессоры со специальным набором команд для выполнения 3D вычислений. Со временем число таких команд росло, что, с одной стороны, позволяло гибче и эффективнее работать с изображением, а с другой — усложнило процесс разработки.

С 1996 года начали выпускаться графические ускорители S3 ViRGE, 3dfx Voodoo, Diamond Monster и другие. В 1999 году nVidia выпустила процессор GeForce 256, введя в обиход термин GPU — графический процессор. Он уже универсальный, может заниматься геометрическими расчетами, преобразованием координат, расстановкой точек освещения и работой с полигонами. Отличие GPU от других графических чипов заключалось в том, что внутри, кроме специализированных команд, был набор стандартных команд, с помощью которых можно было реализовать свой алгоритм рендеринга. Это дало значительное преимущество, так как позволило добавлять любые спецэффекты, а не только те, которые уже запрограммированы в видеокарту. Начиная с GeForce 8000/9000 в GPU появились потоковые процессоры — уже полноценные вычислители. Их число варьировалось в зависимости от модели от 16 до 128. В современной терминологии они называются унифицированные шейдерные блоки, или просто шейдерные блоки. В производимых сегодня GPU AMD Vega 64 содержится 4096 шейдерных блока, а тактовая частота может достигать 1536 МГц! Что содержит в себе GPU Архитектура GPU отличается от CPU большим количеством ядер и минималистичным набором команд, направленных в основном на векторные вычисления. На уровне архитектуры решены вопросы параллельной работы большого числа ядер и одновременного доступа к памяти. Современные GPU содержат от 2-х до 4-х тысяч шейдерных блоков, которые объединены в вычислительные юниты (Compute Unit). При параллельных вычислениях особенно остро стоит проблема одновременного доступа к памяти. Если каждый из потоковых процессоров попытается выполнить запись в ячейку памяти то эти команду упрутся в блокировку и их необходимо будет поставить в очередь, что сильно снизит производительность. Поэтому потоковые процессоры выполняют команды небольшими группами: пока одна группа производит вычисления, другая загружает регистры и т.д. Также можно объединить ядра в рабочие группы, обладающие общей памятью и внутренними механизмами синхронизации.      Еще одной важной особенностью GPU является наличие векторных регистров и векторных АЛУ, которые могут выполнять операции одновременно для нескольких компонентов вектора. Это в первую очередь нужно для 3D графики, но поскольку наш мир трехмерный, ничто не мешает использовать это для многих физических вычислений. При наличии свободных векторных АЛУ их можно использовать и для вычисления скалярных величин. Они такие разные, CPU и GPU Для полноценной работы вычислительной системы важны оба типа устройств. К примеру, мы выполняем пошаговую программу, некий последовательный алгоритм. Там нет возможности выполнить пятый шаг алгоритма, так данные для него рассчитываются на шаге четыре. В таком случае эффективнее использовать CPU с большим кэшем и высокой тактовой частотой. Но есть целые классы задач, хорошо поддающихся распараллеливанию. В таком случае эффективность GPU очевидна. Самый частый пример — вычисление пикселей отрендеренного изображения. Процедура для каждого пикселя почти одинаковая, данные о 3D объектах и текстурах находятся в ОЗУ видеокарты и каждый потоковый процессор может независимо от других посчитать свою часть изображения.

Вот пример современной задачи — обучение нейронной сети. Большое количество одинаковых нейронов необходимо обучить, то есть поменять весовые коэффициенты каждого нейрона. После таких изменений нужно пропустить через нейросеть тестовые последовательности для обучения и получить вектора ошибок. Такие вычисления хорошо подходят для GPU. Каждый потоковый процессор может вести себя как нейрон и при вычислении не придется выстраивать решение последовательным образом, все наши вычисления будут происходить одновременно. Другой пример — расчет аэродинамических потоков. Необходимо выяснить возможное поведение проектируемого моста под воздействием ветра, смоделировать его аэродинамическую устойчивость, найти оптимальные места установки обтекателей для корректировки воздушных потоков или рассчитать устойчивость к ветровому резонансу. Помните знаменитый “танцующий мост” в Волгограде? Думаю, что никто не хотел бы оказаться в тот момент на мосту… 

Поведение воздушного потока в каждой точке можно описать одинаковыми математическими уравнениями и решать эти уравнения параллельно на большом количестве ядер. GPU в руках программистов Для выполнения вычислений на GPU используется специальный язык и компилятор. Существует несколько фреймворков для выполнения общих вычислений на GPU: OpenCL, CUDA, С++AMP, OpenACC. Широкое распространение получили первые два, но использование CUDA ограничено только GPU от компании nVidia.

OpenCL был выпущен в 2009 году компанией Apple. Позднее корпорации Intel, IBM, AMD, Google и nVidia присоединились к консорциуму Khronos Group и заявили о поддержке общего стандарта. С тех пор новая версия стандарта появляется каждые полтора-два года и каждый привносит все более серьезные улучшения. 

На сегодняшний день язык OpenCL C++ версии 2.2 соответствует стандарту C++14, поддерживает одновременное выполнение нескольких программ внутри устройства, взаимодействие между ними через внутренние очереди и конвейеры, позволяет гибко управлять буферами и виртуальной памятью. Реальные задачи Интересная задача из теории игр, в решении которой мы принимали участие — доказательство теоремы из статьи профессора Чуднова А.М. “Циклические разложения множеств, разделяющие орграфы и циклические классы игр с гарантированным выигрышем“. Задача заключается в поиске минимального числа участников одной коалиции в коалиционных играх Ним-типа, гарантирующее выигрыш одной из сторон. 

С математической точки зрения это поиск опорной циклической последовательности. Если представить последовательность в виде списка нулей и единиц, то проверку на опорность можно реализовать логическими побитовыми операциями. С точки же зрения программирования такая последовательность представляет собой длинный регистр, например, 256 бит. Самый надежный способ решения этой задачи — перебор всех вариантов за исключением невозможных по очевидным причинам.

Цели решения задачи — вопросы эффективной обработки сигналов (обнаружение, синхронизация, координатометрия, кодирование и т.д.).

Сложность решения этой задачи в переборе огромного числа вариантов. Например, если мы ищем решение для n=25, то это 25 бит, а если n=100, то это уже 100 бит. Если взять количество всех возможных комбинаций, то для n=25 это 2^25=33 554 432, а для n=100 это уже 2^100=1 267 650 600 228 229 401 496 703 205 376 комбинаций. Возрастание сложности просто колоссальное!

Такая задача хорошо распараллеливается, а значит она идеально подходит для нашего GPU кластера. Программисты vs математики Изначально математики решали эту задачу на Visual Basic в Excel, так удалось получить первичные решения, но невысокая производительность скриптовых языков не позволила продвинуться далеко вперед. Решение до n=80 заняло полтора месяца… Склоняем голову перед этими терпеливыми людьми.

Первым этапом мы реализовали алгоритм задачи на языке Си и запустили на CPU. В процессе выяснилось, что при работе с битовыми последовательностями многое можно оптимизировать. 
Далее мы оптимизировали область поиска и исключили дублирование. Также хороший результат дал анализ генерируемого компилятором ассемблерного кода и оптимизация кода под особенности компилятора. Всё это позволило добиться существенного прироста скорости вычислений.

Следующим этапом оптимизации стало профилирование. Замер времени выполнения различных участков кода показал, что в некоторых ветках алгоритма сильно возрастала нагрузка на память, а также выявилось излишнее ветвление программы. Из-за этого “маленького” недочёта почти треть мощности CPU была не задействована.

Очень важным аспектом решения подобных задач является аккуратность написания кода. Правильных ответов на эту задачу никто не знает и тестовых векторов соответственно нет. Есть лишь первая часть диапазона решений, которые были найдены математиками. Достоверность новых решений можно гарантировать только аккуратностью написания кода.

Вот и наступил этап подготовки программы для решения на GPU и код был модифицирован для работы в несколько потоков. Управляющая программа теперь занималась диспетчеризацией задач между потоками. В многопоточной среде скорость вычисления увеличилась в 5 раз! Этого удалось добиться за счет одновременной работы 4 потоков и объединения функций.

На этом этапе решение производило верные расчеты до n=80 за 10 минут, тогда как в Exсel’e эти расчеты занимали полтора месяца! Маленькая победа!  GPU и OpenCL Было принято решение использовать OpenCL версии 1.2, чтобы обеспечить максимальную совместимость между различными платформами. Первичная отладка производилась на CPU от Intel, потом на GPU от Intel. Уже потом перешли на GPU от AMD.

В версии стандарта OpenCL 1.2 поддерживаются целочисленные переменные размерностью 64 бита. Размерность в 128 бит ограничено поддерживается AMD, но компилируется в два 64-х битных числа. Из соображений совместимости и для оптимизации производительности было решено представлять число размерностью 256 бит как группу 32-х битных чисел, логические побитовые операции над которыми производятся на внутреннем АЛУ GPU максимально быстро.
Программа на OpenCL содержит ядро — функцию, которая является точкой входа программы. Данные для обработки загружаются с CPU в ОЗУ видеокарты и передаются в ядро в виде буферов — указателей на массив входных и выходных данных. Почему массив? Мы же выполняем высокопроизводительные вычисления, нам нужно много задач, выполняемых одновременно. Ядро запускается на устройстве во множестве экземпляров. Каждое ядро знает свой идентификатор и берет именно свой кусочек входных данных из общего буфера. Тот случай, когда самое простое решение — самое эффективное. OpenCL — это не только язык, но и всеобъемлющий фреймворк, в котором досконально продуманы все мелочи научных и игровых вычислений. Это здорово облегчает жизнь разработчику. Например, можно запустить много потоков, диспетчер задач разместит их на устройстве сам. Те задачи, которые не встали на немедленное исполнение, будут поставлены в очередь ожидания и запущены по мере освобождения вычислительных блоков. У каждого экземпляра ядра есть свое пространство в выходном буфере, куда он и помещает ответ по завершению работы.

Основная задача диспетчера OpenCL — обеспечить параллельное выполнение нескольких экземпляров ядра. Здесь применён накопленный десятилетиями научный и практический опыт. Пока часть ядер загружает данные в регистры, другая часть в это время работает с памятью или выполняет вычисления — в результате ядро GPU всегда полностью загружено.
Компилятор OpenCL хорошо справляется с оптимизацией, но разработчику влиять на быстродействие проще. Оптимизация под GPU идет в двух направлениях — ускорение выполнения кода и возможность его распараллеливания. Насколько хорошо распараллеливается код компилятором зависит от нескольких вещей: количество занимаемых scratch регистров (которые располагаются в самой медленной памяти GPU — глобальной), размер скомпилированного кода (надо поместиться в 32 кб кэша), количество используемых векторных и скалярных регистров. ComBox A-480 GPU или один миллион ядер Эта самая интересная часть проекта, когда от Excel мы перешли на вычислительный кластер состоящий из 480 видеокарт AMD RX 480. Большого, быстрого, эффективного. Полностью готового к выполнению поставленной задачи и получению тех результатов, которых мир еще никогда не видел.

Хочется отметить что на всех этапах совершенствования и оптимизации кода мы запускали поиск решения с самого начала и сравнивали ответы новой версии с предыдущими. Это позволяло быть уверенными, что оптимизация кода и доработки не вносят ошибки в решения. Тут нужно понимать, что правильных ответов в конце учебника нет, и никто в мире их не знает.
Запуск на кластере подтвердил наши предположения по скорости решений: поиск последовательностей для n>100 занимал около часа. Было удивительно видеть как на кластере ComBox A-480 новые решения находились за минуты, в то время как на CPU это занимало многие часы.

Всего через два часа работы вычислительного кластера мы получили все решения до n=127. Проверка решений показала, что полученные ответы достоверны и соответствуют изложенным в статье теоремам профессора Чуднова А.М. Эволюция скорости Если посмотреть прирост производительности в ходе решения задачи, то результаты были примерно такими:   полтора месяца до n=80 в Excel; час до n=80 на Core i5 с оптимизированной программой на С++; 10 минут до n=80 на Core i5 с использованием многопоточности; 10 минут до n=100 на одном GPU AMD RX 480; 120 минут до n=127 на ComBox A-480. Перспективы и будущее Многие задачи стоящие на стыке науки и практики ожидают своего решения, чтобы сделать нашу жизнь лучше. Рынок аренды вычислительных мощностей только формируется, а потребность в параллельных вычислениях продолжает расти. 

Возможные области применения параллельных вычислений:
  задачи автоматического управления транспортными средствами и дронами; расчеты аэродинамических и гидродинамических характеристик; распознавание речи и визуальных образов; обучение нейронных сетей; задачи астрономии и космонавтики; статистический и корреляционный анализ данных; фолдинг белок-белковых соединений; ранняя диагностика заболеваний с применением ИИ.   Отдельное направление — облачные вычисления на GPU. Например, такие гиганты как Amazon, IBM и Google сдают свои вычислительные мощности на GPU в аренду. Сегодня с уверенностью можно сказать что будущее высокопроизводительных параллельных вычислений будет принадлежать GPU кластерам.

ComBox

ComBox

Запуск блога о майнинге

Всем привет. Компания HotAsic запускает блог о майнинге, мы будем ежемесячно писать, какую крипловалюту стоит майнинг, выпускать обзор нового оборудования и публиковать отзывы наших клиентов. Подписывайтесь, комментируйте. Будем рады общаться!  

HotAsic

HotAsic

Что значит быть "китом" среди криптоинвесторов и как они работают

Много кто из криптоинвесторов слышал о китах – держателях больших объемов ведущих монет. Колоссальные активы позволяют им управлять курсом валюты, меняя ситуацию на рынке, что существенно влияет на доходы владельцев меньших сумм. Поэтому последним важно знать, как и по каким стратегиям работают киты, чтобы использовать эти факторы в свою пользу.   В списке популярных схем – так называемое «Полоскание и повторение». Суть ее заключается в массовой продаже китом криптовалюты по заниженной цене, что провоцирует панику на рынке (рядовые инвесторы начинают опасаться обвала), и последующей скупке монет по заниженной цене.   Проще всего понять стратегию на конкретном примере. Предположим, у кита есть 10000 биткоинов, а рыночная цена 1 ВТС в данный момент – 6200$. Чтобы спровоцировать слив, он продает 5 000 ВТС по 5800$ (получая за это 29 млн долларов). Видя массовое появление ордеров по такой цене, рядовые игроки начинают подозревать обвал курса и стараются побыстрее сбыть свои монеты, пока курс еще остается относительно выгодным.   Чем больше будет продаж, тем ниже упадет стоимость 1 ВТС и тем выгоднее ситуация для кита. Он дожидается падения цены ниже уровня 5800$ и в нужный момент купит монеты обратно (например, по условному курсу 5000$). Как результат, за полученные 29 млн долларов он сможет приобрести уже 5800 ВТС, а это 4 млн чистой прибыли.      К распространенным стратегиям относится и спуфинг, цель которого - создать впечатление снижения или роста стоимости выбранной криптовалюты. В данном случае киту даже не нужно использовать свои активы: он просто выставляет большой ордер, например, на покупку. Крупная заявка влияет на стену покупки, трейдеры видят это и, ожидая дальнейшего роста курса, начинают массово закупать указанную криптовалюту. Кит терпеливо выжидает момента, когда цена поднимется до пика, а после отменяет свой ордер и продает часть своих активов по выросшей стоимости.   Если же кит выставляет крупный ордер на продажу, то указывает там цену ниже рыночной. Такой ход имеет обратное действие: трейдеры начинают паниковать, ожидая обвала, и активно продают свои монеты, снижая тем самым их стоимость. Когда, по мнению кита, цена достигает дна, он отменяет ордер и скупает обесценившуюся криптовалюту.     Поэтому крупные игроки выставляют заявки на суммы, которые рынку не под силу выкупить. В результате складывается ситуация, когда трейдеры вынуждены или ждать выполнения ордера, или действовать по алгоритму, навязанному им китом (активно сливать или закупать валюту). В любом случае кит остается в выигрыше.     Крупные игроки славятся не только стратегиями на биржах, но и игрой вне торговых площадок. Основную скупку активов они чаще всего проводят на черном рынке, где есть возможность сделать это по заниженной цене, пользуясь полной анонимностью. Такая торговля ведется в закрытых группах, посредством внебиржевых брокеров и т.д.   Пользуясь услугами подобных теневых структур, киты не только выгодно приобретают большие объемы криптовалюты, но и имеют возможность заключать договоренности между собой для управления курсом.   Кстати, китов часто путают с памперами – игроками, практикующими технологию Pump&Dump, однако это не совсем корректно. Как известно, памперы работают преимущественно с альткоинами, создавая искусственный ажиотаж вокруг малоизвестных монет, а вот киты интересуются в основном биткоином и иногда другими топовыми валютами.     Рядовые участники по-разному оценивают присутствие китов на криптовалютном рынке. Одни их опасаются, считая, что сегодня эти игроки посредством рыночных манипуляций стремятся захватить как можно больше активов, чтобы обогатиться за счет других игроков и сосредоточить в своих руках контроль над рынком.   Другие же осознают, что киты – это явление, характерное не только для криптовалютного мира, но и для обычного биржевого рынка. Поэтому бояться их не стоит, а нужно лишь уметь пользоваться волной, которую они создают своими действиями.   Автор: Дмитрий Карпиловский, основатель сообщества Cryptonet

Запускаем мастерноду на linux(Ubuntu)

Итак, пришло время рассказать Вам о запуске мастерноды на своём сервере VPS(Ubuntu). Во всех примерах я использую подопытную монету Stone. Для начала скачиваем официальный кошелек монеты на свой локальный компьютер и запускаем его. ждем полной синхронизации кошелька. Далее нам нужно создать новый адрес кошелька и отправить на него необходимое кол-во монет которое требуется для запуска мастерноды, в моём случае с монетой Stone - это 1500 монет. Для этого открываем Инструменты -> Консоль отладки и пишем в консоли следующие команды: getnewaddress MN6 - Создаем кошелек с названием MN6(в моем случае эта 6-ая мастернода) в Вашем будет MN1. Далее отправляем на него 1500 монет командой sendtoaddress SifLoR8SLQu2zMb7EA2e42hRvMYbbFD2uq 1500. Создание кошелька и отправка монет:   Теперь пока мы ждем полного подтверждения транзакции переходим к настройке кошелька на VPS сервере. Подключаемся к серверу с помощью вот этой инструкции: Инструкция Командой wget ссылка_на_архив - скачиваем архив с нашим кошельком wget https://github.com/stonecoinproject/Stonecoin/releases/download/v2.1.0.1-9523a37/stonecore-2.1.0-linux64.tar.gz Далее командой tar -xvf Имя_Архива распаковываем архив с кошельком. tar -xvf stonecore-2.1.0-linux64.tar.gz Далее командой cd переходим в папку где лежат файлы самого кошелька Запускаем кошелек командой ./stoned -daemon Если у Вас появилась надпись Stone Core server starting значит кошелек запущен и должна пойти синхронизации. Если у Вас появилась ошибка значит нужно настроить сначала конфиг файл а затем запускать кошелек!(см.далее) Далее в программе Bitvise нажимаем кнопку New SFTP window и заходим в папку /root/.stonecore/ - В вашем случае будет название Вашей монеты. открываем конфиг файл монеты stone.conf - У Вас может быть другое название. И вписываем туда следующее: rpcuser=Any_User
rpcpassword=Any_password
rpcallowip=127.0.0.1
listen=1
server=1
daemon=1
staking=0
externalip=185.244.218.181:22323
masternode=1
masternodeprivkey=7SDDkrsCyXVMkitR6VMSx8yGeNTKohjLh4484GSN92KypsD8QaD - Открыть Окно отладки локального кошелька и прописать там masternode genkey  Перед сохранением файла на сервере в терминале нужно выполнить остановку кошелька ./stone-cli stop  Далее сохраняем файл и запускаем кошелек заново командой ./stoned -daemon Теперь переходим к настройке локального кошелька. Если наша транзакция полностью подтвердилась, то переходим в окно отладки и пишем masternode outputs - этим мы получим шех и индекс транзакции, в моем случае:   "e2e3b929a5ab154fa9eed6625c993ba0c2e781b6c4b8b523f7eb562fb5c36cde": "1", Открываем файл настроек мастернод в во вкладке Инструменты и пишем там следующее: Masternode6 185.244.218.181:22323 7SDDkrsCyXVMkitR6VMSx8yGeNTKohjLh4484GSN92KypsD8QaD e2e3b929a5ab154fa9eed6625c993ba0c2e781b6c4b8b523f7eb562fb5c36cde 1 Сохраняем файл далее закрываем локальный кошелек и запускаем по новой. Переходим во вкладку Мастерноды и если ваша мастернода на VPS сервере синхронизировалась полностью запускаем нажав правой кнопкой по мастерноде в локальном кошельке и выбрав Запуск по имени.     Телеграмм: @simkas45

YaKorshun

YaKorshun

Подготовка Linux для запуска мастернод.

Для того, чтобы установить кошелек и запустить его, Вам необходимо предварительно установить необходимые библиотеки. Я взял для примера монету stone там нужно выполнить в терминале Linux следующие команды: $ apt-get update
$ apt -y install software-properties-common
$ apt-add-repository -y ppa:bitcoin/bitcoin
$ apt-get update
$ apt install -y make build-essential libtool software-properties-common autoconf libssl-dev libboost-dev libboost-chrono-dev libboost-filesystem-dev libboost-program-options-dev libboost-system-dev libboost-test-dev libboost-thread-dev sudo automake git curl libdb4.8-dev bsdmainutils libdb4.8++-dev libminiupnpc-dev libgmp3-dev ufw pkg-config libevent-dev libdb5.3++ unzip libzmq5
  После чего можете смело скачивать кошелек для своей монеты и переходить к настройке и запуску мастерноды!(в следующих статьях)   Телеграмм: @simkas45

YaKorshun

YaKorshun

Как подключиться к серверу на Linux?

После того как Ваш сервер активировали Вам необходимо подключиться к нему через программу bitvise(очень удобный ssh клиент). Перейдите по ссылке скачайте клиент, установите и запустите: Введите свой IP адрес сервера, логин root и пароль от пользователя root и нажмите Login. Перед Вами откроется окно терминала для работы с сервером:   Телеграмм: @simkas45

YaKorshun

YaKorshun

Сервис надёжный во всём

Дорогие пользователи, теперь для вашего удобства мы собираем отзывы со всех основных ресурсов прямо у себя на сайте! 🤩 Всё просто и прозрачно — форумы, мониторинги и другие ресурсы, любое мнение о нашем сервисе в одном месте. Просто кликните на отзыв и вы перейдете на ресурс, где он был оставлен. Это очень удобно.  Мы заботимся о вашем времени и дорожим вашим спокойствием.   Спасибо всем, кто поддержал нас своим отзывом!   С 💙, команда Bitok.cc   Основная тема на форуме: https://forum.bits.media/index.php?/topic/122208-bitokcc-—-простой-и-быстрый-обмен-bitcoin-ethereum-qiwi-сбербанк-альфабанк-бонус-за-любой-обмен/&amp;

Bitokcc

Bitokcc

"Смерть" домашнего майнинга и глобализация добычи криптовалют. Переходим в промышленные масштабы

Майнинг криптовалют медленно трансформируется из создания монет на базе одной карты или фермы дома в обособленную отрасль и переходит на промышленные масштабы. Такие компании, как AMD и Bitmain, внедряют инновационные продукты, помогающие модернизировать добычу, наращивать ее объемы.   Однако со временем майнинг требует все больших капиталовложений, становясь эффективным только для пользователей, решивших профессионально работать в этом направлении. В то же время затраты огромного количества электроэнергии продолжают вызывать вопросы, что может приводить к новому пересмотру деятельности.   Исходяиз этих предпосылок, компания «ComBox Technology», силами собственного научно-исследовательского отдела (R&D), разработала и предложила рынку уникальное решение «ComBox», предназначенное для майнинга альткоинов с помощью продуктов «ComBox» на базе графических карт (GPU) с системой двухфазного иммерсионного охлаждения. Уникальность «ComBox» состоит в использовании жидкостного охлаждения на базе негорючей жидкости «Novec 3М» и достигнутой высокой плотности установки видеокарт в рамках мобильных платформ, таких как контейнеры.     В основе изначальной концепции решений «ComBox» для двухфазного жидкостного охлаждения заложена идея высокой безопасности работы на всем протяжении эксплуатации и высокие технико-экономические показатели. К примеру, раньше для организации ЦОД требовалось постройка зданий и сооружений, т.е. организация собственной большой и затратной инфраструктуры. Наше мобильное решение на базе 20-ти футового контейнера позволяет быстро собрать, доставить и установить его в месте с наименьшей ценой на электроэнергию.     Спроектированная и разработанная компаний «ComBox Technology» расширительная плата SMART IC-6 позволяет крепить 6 современных видеокарт вплотную друг к другу, по 3 штуки с каждой стороны. За счет минимизации зазоров, их можно установить в очень большом количестве на ограниченной площади и очень плотно друг к другу. Также платы поддерживают каскадное подключение, т.е. в одну, даже самую дешевую, материнскую плату с одним PCIe можно подключить не менее 12 видеокарт.     При других решениях, не используя такую расширительную плату, этого сделать не получится. Плата спроектирована с нуля и представляет собой не просто прототип, а серийно-производимое устройство. Она снабжена функциями контроля напряжений, которые идут с блоков питания, а встроенный процессор дает возможность блокировать видеокарты удаленно с интерфейса и наблюдать за всеми элементами системы в режиме реального времени, собирая телеметрию в объеме, который необходим и достаточен, например, температуру и уровень жидкости. В качестве основного элемента системы охлаждения используется специальная жидкость, которую производит компания «3М». Это экологически безопасная фтор-органика, прозрачный диэлектрик, который кипит при температуре 61 градус. Следовательно, любая точка электроники в системе будет иметь максимальную температуру 61 градус. Это происходит из-за того, что для отвода тепла используется фазовый переход из жидкого состояния в газообразное. Температура жидкости при этом не меняется.   Таким образом, мы получаем охлаждение всех элементов: от памяти и процессоров, до мельчайших деталей. Именно эта жидкость используется для пожаротушения, поэтому с позиции рисков пожара и огня она полностью безопасна. В отличие от минерального масла, которое применяется в других системах, жидкость «3М» не может загореться, в принципе. Тепло в системе отводится за счет кипения, и эффективность такого отвода, по сравнению с воздушными системами охлаждения, крайне высокий. Поэтому технология, разработанная компанией «ComBox Technology», позволяет устанавливать оборудование минимум в 10 раз плотнее, чем при классической воздушной технологии. Благодаря наличию жидкостного охлаждения, резко снижаются затраты на кондиционеры, на кулеры и иные движущие части, которые теперь не могут сломаться или потребовать замены. В системе иммерсионного охлаждения отсутствуют подвижные детали, а просто работает физика: жидкость кипит, отводя тепло от нагретых элементов и, конденсируясь, стекает обратно в систему. Это качественное преимущество нашей системы. В результате мы получаем практически идеальное решение для вычислительных систем на базе видеокарт (GPU). Данное решение легко масштабируется и полностью готово для установки видеокарт повышенной производительности, с более высоким тепловыделением, в случае необходимости.     Основные характеристики решения «ComBox»: 20-футовые мобильные контейнеры, в которых установлено 10 секций с иммерсионным охлаждением, размером 70х80х40 см по 96 видеокарт AMD RX470 в каждой. Итого – 960 карт/контейнер. Энергопотребление 1 контейнера – 170 кВт/час. Хешрейт на Ethereum – 26 GH/s. Энергопотребление рассчитано как потребление всей системы непосредственно от энергосети, а не только процессоров видеокарт.

ComBox

ComBox

Жидкостное охлаждение в майнинге: двухфазное VS однофазное

На сегодняшний день существует два направления по внедрению иммерсионного охлаждения в майнинг и наукоемкие вычисления: Однофазное иммерсионное охлаждение с использование минерального масла Двухфазное иммерсионное охлаждение с использование фторорганики   Оба направления активно развиваются и применяются для охлаждения, в основном, айсиков. Основные минусы минерального масла заключаются в его горючести, необходимости использования гидравлических помп для его перекачки внутри резервуаров, а также в том, что процесс является однофазным. Суть однофазного процесса заключается в том, что отвод тепла происходит не за счет испарения и конденсации, а за счет перемешивания при помощи помп, что в любом случае только увеличивает потребление энергии и снижает эффективность охлаждения. Такие системы не способны отвести большое количество тепла от радиатора с малой поверхностью. Т.о. можно сделать вывод, что перспективными являются технологии именно двухфазного иммерсионного охлаждения, которые и используются в системах «ComBox».   Сегодня существует как минимум два больших проекта, применяющих двухфазное иммерсионное охлаждение. Любой проект, реализованный в ближайшие годы с использованием двухфазного иммерсионного охлаждения, сможет собрать финансирование, но все они, по сути, повторяют друг друга. Все крупные проекты и еще несколько небольших стартовали в своих разработках, примерно, в одно время. Следовательно, примерно в одно время им предстоит делить и без того насыщенный рынок. При этом все проекты ориентированы только на саму технологию и, в основном, погружают готовые типовые устройства в жидкость и реализуют обвязку для ее работы. А этого недостаточно чтобы ввести системы двухфазного иммерсионного охлаждения в промышленную эксплуатацию по нескольким причинам: Системы, изначально разработанные под воздушное охлаждение, не подходят, т.к. они занимают много места и не обеспечивают высокой плотности установки устройств, а низкая плотность - нецелесообразна, т.к. требует большого количества дорогостоящей жидкости для охлаждения компонентов системы. Таким образом, простое применение и погружение в жидкость «Novec 3M» неподготовленных для этого систем, будет в эксплуатации не дешевле, а существенно дороже. Именно это останавливало массовое внедрение двухфазного иммерсионного охлаждения до появления и реализации нашего решения. Недостаточно погружения плат в жидкость, нужно делать экосистему и комплексное решение, составными частями которого являются аппаратные и программные компоненты. В «ComBox» мы сделали автономную автоматизированную систему для промышленного майнинга и решения наукоемких задач. Инженеры компании «ComBox Technology» разработали собственное уникальное решение для двухфазного иммерсионного охлаждения, которое включает платы собственной разработки с видеокартами по 6 шт. на каждой, которые устанавливаются вплотную друг к другу внутри бойлера с жидкостью 3M Novec, что позволяет существенно сэкономить на самой жидкости. За счет этого на выходе мы получаем уникальную комплексную модульную систему с высокой плотностью установки видеокарт, минимальной стоимость расходных материалов, а также с минимальным энергопотреблением (в сравнении с однофазными системами).  

ComBox

ComBox

×