Страница телеграм канала Robotics Channel

robotics_channel logo

Robotics Channel

9531 подписчиков

Мир робототехники, искусственного разума и сфер их применения. Сайт the-robot.ru Чат @robotics_chat Книги @robotics_books Прислать информацию @robotics_bot Реклама http://telegra.ph/Tarify-na-reklamu-11-28 Админы @MaximKosterin и @Vintego


Входит в категории: Технологии
Robotics Channel
23.08.2019 10:08
Освойте самую востребованную технологию искусственного интеллекта! У вас уже есть базовое понимание машинного обучения и знание языка Python? Повысьте компетенции и получите практические навыки по программированию глубоких нейронных сетей! В SkillFactory открыт новый набор на курс "Deep Learning и нейронные сети" https://clc.to/t0-b2A разработанный при поддержке NVIDIA Corporation. Проекты, над которыми вы будете работать, включают: создание нейронной сети для распознавания рукописных цифр; обучение рекурентной сети задачам прогнозирования временных рядов; разработку нейросетевого чат-бота; создание модели для идентификации лиц и генерации лиц на основе архитектуры GAN; разработку агента для игры на основе DQN алгоритма. Вы познакомитесь с основными библиотеками для Deep Learning, такими как TensorFlow, Keras и другими. До конца недели действует супер-скидка 30%. Узнайте подробности: https://clc.to/t0-b2A
Читать

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме


Robotics Channel
23.08.2019 10:08
Читать

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме


Robotics Channel
21.08.2019 18:08
NNP-T - новый нейропроцессор от Intel Компания Intel представила подробное описание нового нейропроцессора NNP-T (Nervana Neural Network Processor for Training) на симпозиуме Hot Chips 31, прошедшем 18 – 20 августа в кампусе Стэнфордского университета. NNP-T выпускается в формате мезонинной карты OCP, популярном в центрах обработки данных. Микросхема работает на частоте 1,1 ГГц и потребляет от 150 до 250 Вт в конфигурациях с воздушным охлаждением, а в будущем возможно повышение производительности с переходом на водяное охлаждение. Технически это однокристальная система, содержащая 24 тензорных ядра, 32 Гбайт памяти и 16 линий PCIe 4.0. Четыре чипа по 8 Гбайт подключены через высокоскоростной интерфейс HBM2. Для внутренних соединений используются 64 линии SerDes с пропускной способностью по 28 ГБ/с (3,58 Тбит/с). Пиковая производительность составляет 119 TOPS (триллионов операций в секунду). Эта система на кристалле ранее была известна под названием Spring Crest Deep Learning Accelerator. Она призвана ускорить процесс обучения искусственных нейронных сетей и сделать его более энергоэффективным. По словам представителей Intel, сложность наборов данных для нейросетей удваивается примерно каждые пять месяцев. Сейчас для обучения на них используют связку из серверных процессоров Xeon и графических ускорителей Nvidia, но в такой универсальной конфигурации ресурсы используются слишком нерационально. Основная проблема в том, что данные постоянно перемещаются между графической и системной памятью, а промежуточные вычисления синхронизируются у вычислительных блоков разной архитектуры. Минимизация перемещения данных – ключевой принцип Nervana. Тензорные ядра NNP-T используют механизм Convolution Engine, который позволяет считывать данные из памяти и сразу преобразовывать их с помощью сверточных фильтров перед операциями умножения матриц. В них реализована оптимизация вычислений bFloat16, FP32 и BF16, поддержка набора инструкций AVX512 и внеочередное исполнение инструкций на конвейерах с улучшенной точностью прогнозирования ветвлений. NNP-T легко масштабируется в систему из 8 процессоров и даже сеть из нескольких узлов, соединённых по скоростному каналу. Архитектура поддерживает масштабирование до 1024 узлов с восемью NNP-T в каждом. Нейропроцессор выпускается по 16-нм процессу TSMC CLN16FF+. Он содержит 27 млрд. транзисторов, размещённых на подложке площадью 688 кв. мм. В ней находятся основные вычислительные блоки – 24 тензорных ядра (TPCs). Матрица NNP-T окружена четырьмя стеками HBM2-2400 (2,4 ГБ/с) по 8 ГБ каждый, которые расположены поверх промежуточного слоя площадью 1200 кв. м. Каждый TPC имеет четыре высокоскоростные шины, две из которых предназначены для памяти HBM2, а две другие поддерживают связь с другими TPCs. Intel стремится упростить труд разработчиков, реализовав большую часть функций в библиотеке nGraph с открытым исходным кодом и предоставляя компилятор, объединяющий платформы Paddle Paddle, Pytorch и TensorFlow. До конца текущего года Intel предоставит образцы NNP-T своим ключевым партнёрам. Скорее всего, это будут облачные провайдеры первого уровня. Для широкого рынка будет доступна уже обновлённая ревизия NNP-T, которая выйдет не ранее 2020 года. Источник: https://www.anandtech.com/show/14757/hot-chips-live-blogs-intel-spring-crest-nnpt-on-16nm-tsmc
Читать

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме


Robotics Channel
21.08.2019 18:08
NNP-T - новый нейропроцессор от Intel Компания Intel представила подробное описание нового нейропроцессора NNP-T (Nervana Neural Network Processor for Training) на симпозиуме Hot Chips 31, прошедшем 18 – 20 августа в кампусе Стэнфордского университета. NNP-T выпускается в формате мезонинной карты OCP, популярном в центрах обработки данных. Микросхема работает на частоте 1,1 ГГц и потребляет от 150 до 250 Вт в конфигурациях с воздушным охлаждением, а в будущем возможно повышение производительности с переходом на водяное охлаждение. Технически это однокристальная система, содержащая 24 тензорных ядра, 32 Гбайт памяти и 16 линий PCIe 4.0. Четыре чипа по 8 Гбайт подключены через высокоскоростной интерфейс HBM2. Для внутренних соединений используются 64 линии SerDes с пропускной способностью по 28 ГБ/с (3,58 Тбит/с). Пиковая производительность составляет 119 TOPS (триллионов операций в секунду). Эта система на кристалле ранее была известна под названием Spring Crest Deep Learning Accelerator. Она призвана ускорить процесс обучения искусственных нейронных сетей и сделать его более энергоэффективным. По словам представителей Intel, сложность наборов данных для нейросетей удваивается примерно каждые пять месяцев. Сейчас для обучения на них используют связку из серверных процессоров Xeon и графических ускорителей Nvidia, но в такой универсальной конфигурации ресурсы используются слишком нерационально. Основная проблема в том, что данные постоянно перемещаются между графической и системной памятью, а промежуточные вычисления синхронизируются у вычислительных блоков разной архитектуры. Минимизация перемещения данных – ключевой принцип Nervana. Тензорные ядра NNP-T используют механизм Convolution Engine, который позволяет считывать данные из памяти и сразу преобразовывать их с помощью сверточных фильтров перед операциями умножения матриц. В них реализована оптимизация вычислений bFloat16, FP32 и BF16, поддержка набора инструкций AVX512 и внеочередное исполнение инструкций на конвейерах с улучшенной точностью прогнозирования ветвлений. NNP-T легко масштабируется в систему из 8 процессоров и даже сеть из нескольких узлов, соединённых по скоростному каналу. Архитектура поддерживает масштабирование до 1024 узлов с восемью NNP-T в каждом. Нейропроцессор выпускается по 16-нм процессу TSMC CLN16FF+. Он содержит 27 млрд. транзисторов, размещённых на подложке площадью 688 кв. мм. В ней находятся основные вычислительные блоки – 24 тензорных ядра (TPCs). Матрица NNP-T окружена четырьмя стеками HBM2-2400 (2,4 ГБ/с) по 8 ГБ каждый, которые расположены поверх промежуточного слоя площадью 1200 кв. м. Каждый TPC имеет четыре высокоскоростные шины, две из которых предназначены для памяти HBM2, а две другие поддерживают связь с другими TPCs. Intel стремится упростить труд разработчиков, реализовав большую часть функций в библиотеке nGraph с открытым исходным кодом и предоставляя компилятор, объединяющий платформы Paddle Paddle, Pytorch и TensorFlow. До конца текущего года Intel предоставит образцы NNP-T своим ключевым партнёрам. Скорее всего, это будут облачные провайдеры первого уровня. Для широкого рынка будет доступна уже обновлённая ревизия NNP-T, которая выйдет не ранее 2020 года. Источник: https://www.anandtech.com/show/14757/hot-chips-live-blogs-intel-spring-crest-nnpt-on-16nm-tsmc
Читать

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме


Robotics Channel
21.08.2019 18:08
NNP-T - новый нейропроцессор от Intel Компания Intel представила подробное описание нового нейропроцессора NNP-T (Nervana Neural Network Processor for Training) на симпозиуме Hot Chips 31, прошедшем 18 – 20 августа в кампусе Стэнфордского университета. NNP-T выпускается в формате мезонинной карты OCP, популярном в центрах обработки данных. Микросхема работает на частоте 1,1 ГГц и потребляет от 150 до 250 Вт в конфигурациях с воздушным охлаждением, а в будущем возможно повышение производительности с переходом на водяное охлаждение. Технически это однокристальная система, содержащая 24 тензорных ядра, 32 Гбайт памяти и 16 линий PCIe 4.0. Четыре чипа по 8 Гбайт подключены через высокоскоростной интерфейс HBM2. Для внутренних соединений используются 64 линии SerDes с пропускной способностью по 28 ГБ/с (3,58 Тбит/с). Пиковая производительность составляет 119 TOPS (триллионов операций в секунду). Эта система на кристалле ранее была известна под названием Spring Crest Deep Learning Accelerator. Она призвана ускорить процесс обучения искусственных нейронных сетей и сделать его более энергоэффективным. По словам представителей Intel, сложность наборов данных для нейросетей удваивается примерно каждые пять месяцев. Сейчас для обучения на них используют связку из серверных процессоров Xeon и графических ускорителей Nvidia, но в такой универсальной конфигурации ресурсы используются слишком нерационально. Основная проблема в том, что данные постоянно перемещаются между графической и системной памятью, а промежуточные вычисления синхронизируются у вычислительных блоков разной архитектуры. Минимизация перемещения данных – ключевой принцип Nervana. Тензорные ядра NNP-T используют механизм Convolution Engine, который позволяет считывать данные из памяти и сразу преобразовывать их с помощью сверточных фильтров перед операциями умножения матриц. В них реализована оптимизация вычислений bFloat16, FP32 и BF16, поддержка набора инструкций AVX512 и внеочередное исполнение инструкций на конвейерах с улучшенной точностью прогнозирования ветвлений. NNP-T легко масштабируется в систему из 8 процессоров и даже сеть из нескольких узлов, соединённых по скоростному каналу. Архитектура поддерживает масштабирование до 1024 узлов с восемью NNP-T в каждом. Нейропроцессор выпускается по 16-нм процессу TSMC CLN16FF+. Он содержит 27 млрд. транзисторов, размещённых на подложке площадью 688 кв. мм. В ней находятся основные вычислительные блоки – 24 тензорных ядра (TPCs). Матрица NNP-T окружена четырьмя стеками HBM2-2400 (2,4 ГБ/с) по 8 ГБ каждый, которые расположены поверх промежуточного слоя площадью 1200 кв. м. Каждый TPC имеет четыре высокоскоростные шины, две из которых предназначены для памяти HBM2, а две другие поддерживают связь с другими TPCs. Intel стремится упростить труд разработчиков, реализовав большую часть функций в библиотеке nGraph с открытым исходным кодом и предоставляя компилятор, объединяющий платформы Paddle Paddle, Pytorch и TensorFlow. До конца текущего года Intel предоставит образцы NNP-T своим ключевым партнёрам. Скорее всего, это будут облачные провайдеры первого уровня. Для широкого рынка будет доступна уже обновлённая ревизия NNP-T, которая выйдет не ранее 2020 года. Источник: https://www.anandtech.com/show/14757/hot-chips-live-blogs-intel-spring-crest-nnpt-on-16nm-tsmc
Читать

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме


Robotics Channel
21.08.2019 18:08
NNP-T - новый нейропроцессор от Intel Компания Intel представила подробное описание нового нейропроцессора NNP-T (Nervana Neural Network Processor for Training) на симпозиуме Hot Chips 31, прошедшем 18 – 20 августа в кампусе Стэнфордского университета. NNP-T выпускается в формате мезонинной карты OCP, популярном в центрах обработки данных. Микросхема работает на частоте 1,1 ГГц и потребляет от 150 до 250 Вт в конфигурациях с воздушным охлаждением, а в будущем возможно повышение производительности с переходом на водяное охлаждение. Технически это однокристальная система, содержащая 24 тензорных ядра, 32 Гбайт памяти и 16 линий PCIe 4.0. Четыре чипа по 8 Гбайт подключены через высокоскоростной интерфейс HBM2. Для внутренних соединений используются 64 линии SerDes с пропускной способностью по 28 ГБ/с (3,58 Тбит/с). Пиковая производительность составляет 119 TOPS (триллионов операций в секунду). Эта система на кристалле ранее была известна под названием Spring Crest Deep Learning Accelerator. Она призвана ускорить процесс обучения искусственных нейронных сетей и сделать его более энергоэффективным. По словам представителей Intel, сложность наборов данных для нейросетей удваивается примерно каждые пять месяцев. Сейчас для обучения на них используют связку из серверных процессоров Xeon и графических ускорителей Nvidia, но в такой универсальной конфигурации ресурсы используются слишком нерационально. Основная проблема в том, что данные постоянно перемещаются между графической и системной памятью, а промежуточные вычисления синхронизируются у вычислительных блоков разной архитектуры. Минимизация перемещения данных – ключевой принцип Nervana. Тензорные ядра NNP-T используют механизм Convolution Engine, который позволяет считывать данные из памяти и сразу преобразовывать их с помощью сверточных фильтров перед операциями умножения матриц. В них реализована оптимизация вычислений bFloat16, FP32 и BF16, поддержка набора инструкций AVX512 и внеочередное исполнение инструкций на конвейерах с улучшенной точностью прогнозирования ветвлений. NNP-T легко масштабируется в систему из 8 процессоров и даже сеть из нескольких узлов, соединённых по скоростному каналу. Архитектура поддерживает масштабирование до 1024 узлов с восемью NNP-T в каждом. Нейропроцессор выпускается по 16-нм процессу TSMC CLN16FF+. Он содержит 27 млрд. транзисторов, размещённых на подложке площадью 688 кв. мм. В ней находятся основные вычислительные блоки – 24 тензорных ядра (TPCs). Матрица NNP-T окружена четырьмя стеками HBM2-2400 (2,4 ГБ/с) по 8 ГБ каждый, которые расположены поверх промежуточного слоя площадью 1200 кв. м. Каждый TPC имеет четыре высокоскоростные шины, две из которых предназначены для памяти HBM2, а две другие поддерживают связь с другими TPCs. Intel стремится упростить труд разработчиков, реализовав большую часть функций в библиотеке nGraph с открытым исходным кодом и предоставляя компилятор, объединяющий платформы Paddle Paddle, Pytorch и TensorFlow. До конца текущего года Intel предоставит образцы NNP-T своим ключевым партнёрам. Скорее всего, это будут облачные провайдеры первого уровня. Для широкого рынка будет доступна уже обновлённая ревизия NNP-T, которая выйдет не ранее 2020 года. Источник: https://www.anandtech.com/show/14757/hot-chips-live-blogs-intel-spring-crest-nnpt-on-16nm-tsmc
Читать

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме


20.08.2019 20:08
Наглядная демонстрация работы пожарных роботов Они спокойно могут выдерживать взрывы при тушении пожаров. Discovery
Читать

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме


20.08.2019 20:08
Наглядная демонстрация работы пожарных роботов Они спокойно могут выдерживать взрывы при тушении пожаров. Discovery
Читать

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме


20.08.2019 20:08
Наглядная демонстрация работы пожарных роботов Они спокойно могут выдерживать взрывы при тушении пожаров. Discovery
Читать

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме


20.08.2019 20:08
Наглядная демонстрация работы пожарных роботов Они спокойно могут выдерживать взрывы при тушении пожаров. Discovery
Читать

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме


20.08.2019 20:08
Наглядная демонстрация работы пожарных роботов Они спокойно могут выдерживать взрывы при тушении пожаров. Discovery
Читать

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме


20.08.2019 14:08
Медицина, как и все фундаментальные науки, переживает цифровую трансформацию. Уже сейчас мы можем записываться к врачам онлайн, консультироваться с ними через приложения и Telegram. Хотите заглянуть в будущее медицины? Подписывайтесь на канал @medicalksu! Автор канала Ксения работала в 5 медицинских стартапах и знает всё об их изнанке. Новости и авторские заметки об искусственном интеллекте, мобильных приложениях, биохакинге, чатботах и голосовых ассистентах для врачей. Всё это только для подписчиков канала @medicalksu Подписывайтесь, у Ксюши нескучно!
Читать

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме


20.08.2019 14:08
Медицина, как и все фундаментальные науки, переживает цифровую трансформацию. Уже сейчас мы можем записываться к врачам онлайн, консультироваться с ними через приложения и Telegram. Хотите заглянуть в будущее медицины? Подписывайтесь на канал @medicalksu! Автор канала Ксения работала в 5 медицинских стартапах и знает всё об их изнанке. Новости и авторские заметки об искусственном интеллекте, мобильных приложениях, биохакинге, чатботах и голосовых ассистентах для врачей. Всё это только для подписчиков канала @medicalksu Подписывайтесь, у Ксюши нескучно!
Читать

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме


20.08.2019 14:08
Медицина, как и все фундаментальные науки, переживает цифровую трансформацию. Уже сейчас мы можем записываться к врачам онлайн, консультироваться с ними через приложения и Telegram. Хотите заглянуть в будущее медицины? Подписывайтесь на канал @medicalksu! Автор канала Ксения работала в 5 медицинских стартапах и знает всё об их изнанке. Новости и авторские заметки об искусственном интеллекте, мобильных приложениях, биохакинге, чатботах и голосовых ассистентах для врачей. Всё это только для подписчиков канала @medicalksu Подписывайтесь, у Ксюши нескучно!
Читать

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме


20.08.2019 14:08
Медицина, как и все фундаментальные науки, переживает цифровую трансформацию. Уже сейчас мы можем записываться к врачам онлайн, консультироваться с ними через приложения и Telegram. Хотите заглянуть в будущее медицины? Подписывайтесь на канал @medicalksu! Автор канала Ксения работала в 5 медицинских стартапах и знает всё об их изнанке. Новости и авторские заметки об искусственном интеллекте, мобильных приложениях, биохакинге, чатботах и голосовых ассистентах для врачей. Всё это только для подписчиков канала @medicalksu Подписывайтесь, у Ксюши нескучно!
Читать

Обращаем внимание, что мы не несем ответственности за содержимое(content) того или иного канала размещенный на нашем сайте так как не мы являемся авторами этой информации и на сайте она размещается в автоматическом режиме