3Окт

Машина на автомате: 10 самых доступных автомобилей с «автоматом»

Содержание

Автомобили с АКПП, как их правильно эвакуировать

Если эвакуация авто с АКПП проводится при исправной ходовой части и рабочем рулевом управлении, требования к процессу погрузки и транспортировки выдвигаются практически такие же, как и для машин с механической коробкой.

Но когда такой автомобиль теряет возможность передвигаться самостоятельно, возникает целый ряд сложностей.

Специфика эвакуации авто с АКПП

Буксировка машин с коробкой-автоматом при выключенном двигателе крайне нежелательна. Поэтому если вы не хотите окончательно сломать дорогостоящий автомобиль, при эвакуации необходимо строго придерживаться ряда правил.

Самое главное — не стоит экономить на эвакуаторе. Несоответствующая характеристикам вашего авто спецтехника при погрузке и транспортировке может окончательно вывести машину из строя.

Дело в том, что в АКПП есть насос, который работает только при включенном моторе. Если последний неисправен, смазка в коробку не поступает, что приводит к стремительному износу ее основных узлов.

Мы настоятельно рекомендуем проводить эвакуацию авто с АКПП методом полной погрузки на платформу эвакуатора. Осуществляется постановка таких машин с помощью кранов-манипуляторов.

Эвакуировать авто с АКПП самое лучшее с помощью эвакуатора манипулятора с полной погрузкой на платформу!

Ни в коем случае не следует использовать лебедки, поскольку даже несколько метров пробега при выключенном двигателе могут нанести коробке передач непоправимый вред.

Как правильно эвакуировать автомобиль с АКПП?


Случаются ситуации, когда полная погрузка машины на платформу невозможна. Например, если автомобиль находится в зоне подземного паркинга, где потолки очень низкие.

Тогда единственным возможным способом транспортировки авто является буксировка. Свести к нулю риск полного выхода из строя внутренних узлов автомобиля можно, если поставить рычаг коробки передач в нейтральную позицию и включить зажигание.

Для автомобилей с АКПП нельзя использовать лебедки при эвакуации!

Транспортировка авто с АКПП проводится при скорости максимум 50км/час и на расстояние не более 50 км. Но лучше, чтобы эти показатели были еще меньше. Перегрева механизма можно избежать посредством долива трансмиссионной жидкости и получасового отдыха после каждого часа движения.

Эвакуатор «Сила Дорог»: безопасная погрузка и транспортировка авто с АКПП

Эвакуация с полной погрузкой на эвакуатор манипулятор службы круглосуточной эвакуации Сила Дорог

Наша компания предоставляет услуги эвакуатора для владельцев машин с коробкой-автоматом.

Эвакуация с полной погрузкой на платформу эвакуатора манипулятора от компании Сила Дорог!

Мы предлагаем доступные тарифы и заботимся о том, чтобы ваше транспортное средство было доставлено к месту назначения в целости и сохранности.

Также мы оказываем и целый ряд других полезных услуг, например техпомощь на дороге.

Если попытаться завести автомобиль и починить неполадку непосредственно на месте, это может обойтись гораздо дешевле.

ТОП-3 бюджетных авто с АКПП для начинающих водителей — Автоновости дня

Начинающим автолюбителям, только недавно получившим водительское удостоверение, приходится нелегко в первое время самостоятельной езды. Особо попотеть приходится тем, кто набирается опыта в крупных городах. Здесь наиболее оптимальным вариантом станет сравнительно недорогое авто с автоматической КПП, дабы все внимание было сосредоточено на дорожной обстановке, а не на выборе правильной передачи. «Автоновости дня» составили ТОП-3 бюджетных и компактных авто на «автомате» для новичков.

LADA Granta. Фото АвтоВАЗ

Renault Sandero Stapway

Renault Sandero Stepway. Фото Renault

Приподнятый хетчбэк позволяет уверенно себя чувствовать в условиях городской езды и не особо переживать за высокие бордюры и снежные гребни в зимний период. При этом довольно компактные размеры машины не помешают маневрированию, а сравнительно низкая стоимость кузовных деталей не опустошит карман в случае мелкой аварии.

Под капотом Sandero Stapway с 4-скоростным «автоматом» располагается 1.6-литровый 102-сильный бензиновый мотор, который вполне уверенно тянет этот паркетник.

Hyundai Solaris

Hyundai Solaris. Фото Hyundai

Данный компактный седан родом из Южной Кореи является одним из самых популярных иностранных автомобилей на российском рынке. Четырехдверка отличается хорошим уровнем пассивной безопасности как для бюджетного сегмента, а также весьма комфортным и хорошо скомпонованным салоном.

Радует также тот факт, что с современным 6-скоростным «автоматом» могут быть агрегатированы оба доступных для данной модели бензиновых мотора. Так, «младший» вариант на 1.4 литра предлагает порядка 100 л.с., а вот 1.6-литровый мотор выдает уже 123 «лошадки».

Lada Granta

LADA Granta. Фото АвтоВАЗ

Отечественная модель практически идеально подходит на роль первой машины для начинающего водителя. К плюсам «Гранты» можно смело отнести доступную стоимость, дешевый ремонт и обслуживание, а также крепкую ходовую часть. Главным минусом является не лучшая пассивная безопасность, но за такую цену без компромиссов не обойтись.

Интересующая нас версия с японским 4-скоростным «автоматом» фирмы Jatco комплектуется хорошо знакомым «приоровским» мотором на 1.6 литра, который выдает мощность в 98 лошадиных сил.

Отметим, что все три модели отличаются хорошим уровнем надежности, включая автоматические трансмиссии. В случае с «Грантой» и Sandero Stapway придется довольствоваться лишь 4 передачами, а вот более дорогой Solaris предлагает уже 6-диапазонную «коробку».

Подпишитесь на нас: Яндекс.Новости, Яндекс.Дзен, Google Новости, Telegram, ВКонтакте

Отечественные автомобили с автоматической коробкой передач

Сегодня АКПП завоевывают все большую популярность в мире. В борьбе за покупателя российские автопроизводители  также начали производить отечественные автомобили с автоматической коробкой передач, популярные модели которых мало в чем уступают импортным аналогам.

Содержание статьи

Немного истории

Отечественные машины с автоматом — это не такая новинка, как могут подумать неискушенные потребители. Разработка таких авто началась еще в 40-х годах прошлого века. Первым советским автомобилем с автоматической трансмиссией стал лимузин представительского класса – ЗИМ-111, выпущенный в 1958 году. Еще одной «люксовой» машиной с такой же трансмиссией была «Чайка» (ГАЗ-13).

Кроме того, примерно в это же время выпускался ГАЗ-21 («Волга») с трехступенчатым автоматом. Всего их было произведено около 700 штук. А с 1962 по 1970 год – ГАЗ-23, выпускавшаяся по спецзаказу КГБ. Впоследствии эту машину сменила ГАЗ-24-24, которая также производилась исключительно для нужд комитетчиков.

Со временем эстафету переняла более современная «Волга» — ГАЗ-3102. Она сходила с конвейера на протяжении 27 лет. С 2008 по 2010 год в России было выпущено 9000 машин модели «Сайбер» (Volga Siber).

Пытались не отставать от ГАЗов и «Москвичи» с «Жигулями». Правда, у первых дело ограничилось только двумя прототипами 3-3-5 и 3-3-6. Машины были собраны в конце 70-х годов. А вот ВАЗовцы умудрились в конце 80-х выпустить экспортную модель 2103 — Lada 1500S Automatic. Кроме того, АКПП устанавливалась и на экспортных вариантах «копеек», «пятерок», «шестерок» и «семерок».

Современные отечественные машины с «автоматом»

В настоящее время российские автомобили с автоматической коробкой передач представлены только серией Lada: «Калина», «Гранта» и «Приора».

Из-за особенностей конструкции автомобиль имеет низкий клиренс. При этом поддон поставили алюминиевый вместо стального, что сделало машину более уязвимой. Расход топлива в городском режиме по сравнению в МКПП возрос и составляет от 7,8 до 10 литров.

  • Лада «Гранта». Считается самой доступной моделью с АКПП, которую может предложить отечественный автопром. Коробка японская, JF414E (Jatco), четырехступенчатая. Была спроектирована по заданию АвтоВАЗ, испытана и адаптирована к российским условиям.

Считается «неубиваемой» и способной пережить сам автомобиль. Имеет максимально упрощенную конструкцию. Эта коробка допускает использование не только «родного» масла, но и аналогичных ему более дешевых вариантов. Теоретически, водитель может эксплуатировать ее без капитального ремонта на протяжении 200-400 тысяч км пробега.

  • Лада «Приора». Эта модель – неплохой вариант для тех, кто ищет российский хэтчбек с автоматической коробкой передач. Правда, здесь не стали устанавливать японскую коробку.

Вместо этого на родную механику установили роботизированную надстройку, электронику к которой разрабатывала немецкая фирма ZF. Это лучшие в мире на сегодняшний день разработчики и производители роботизированных трансмиссий. АКПП устанавливается на «Приоре» с 16-клапанным мотором мощностью в 106 л.с.

Рекомендуем также прочитать статью о том, что представляет собой Лада Гранта АКПП. Из этой статьи вы узнаете, какой автомат стоит на Лада Гранта, а также какие преимущества и недостатки имеет данный автомобиль, оснащенный автоматической коробкой передач.

Одной из главных отличительных особенностей принято считать то, что на этой коробке отсутствует парковочный режим. Поэтому на светофорах водителю приходится держать ногу на тормозе, переключившись в нейтральный режим N.
Предусмотрена и опция ручного переключения передач. Активировав ее, водитель сможет включать передачи по возрастанию, двигая рычаг вперед.

Переходить на пониженные передачи нужно, двигая рычаг назад. Но здесь есть один большой «минус». Дело в том, что если разгонять двигатель на первой передаче, например, на подъеме, то «робот» не станет переключаться на следующую передачу. По этой причине водителю придется преодолевать подъемы с разгона или только на первой скорости. Подсластили эту горькую пилюлю тем, что расход на «Природе» с АКПП в смешанной цикле составляет всего 5,6 литра на 100 км.

Конечно, автолюбителям хотелось бы видеть больше российских автомобилей с автоматической коробкой. Автопром учитывает данное пожелание и спрос. Результат -Лада «Веста», Лада «Иксрей» тоже выпускаются в таком оснащении. Однако пока что эти модели имеют только «робот». При этом неизвестно, будет ли устанавливаться на них полноценный автомат.

Что в итоге

Стремясь удержать свой сегмент рынка и завоевать как можно больше отечественных покупателей, АвтоВаз выпускает вполне приличные российские авто с коробкой автомат, которые могут составить достойную конкуренцию импортным машинам той же ценовой категории.

При этом производители прислушиваются к просьбам и пожеланиям автовладельцев и работают над совершенствованием своей продукции, для чего привлекают к сотрудничеству ведущих мировых специалистов по разработке и производству АКПП.

Читайте также

10 причин выбрать «механику» вместо автомата

Автоматические коробки передач уверенно вытесняют «механику» на пенсию. Однако многие водители предпочитают именно «машины с ручкой». И у них есть на то свои аргументы.

Редакция

Жители большой заокеанской страны вообще плохо представляют себе, как у автомобиля может быть три педали вместо двух. А вот в европах царит плюрализм – в пользу «механики» есть множество доводов. Вспомним основные из них.

1 Цена

Автомобиль с «ручкой» всегда дешевле чем такой же собрат с автоматом. В бюджетном секторе можно сэкономить шестизначную сумму. Впрочем, многие производители, начиная с С-класса, перестали предлагать механику. 

2 Динамика

Бюджетные автомобили с недорогими автоматами проигрывают в динамике своим собратьям, оснащенным механикой. На дорогих автомобилях, выпускающихся с обоими видами коробок, разница практически незаметна.

3 Торможение

Механические коробки позволяют водителю тормозить двигателем, повышая эффективность торможения и уменьшая износ тормозных колодок с дисками в придачу. Автоматы этого делать практически не умеют.

4 Экономичность

Расход топлива в автомобиле с механической коробкой передач, как правило, меньше. Как правило, это объясняется несовершенством АКП на бюджетных машинах. Такие коробки зачастую являются задумчивыми, они неадекватно реагируют на изменение нагрузки и, в итоге, повышают прожорливость машины.

5 Запуск «с толкача»

Если на автомобиле с автоматом померла аккумуляторная батарея или, к примеру, сломался стартер, то пустить на ней мотор будет весьма проблематично – придется вызвать эвакуатор. Привычные дедовские способы типа «пустить с толкача» не сработают. А вот простая машинка на механике таких проблем не вызовет. 

6 Езда по бездорожью

Если машина угодила в глубокий снег, песок или грязь, то механическая коробка даст возможность выбраться в раскачку – вперед, назад и т.п. А вот на автомате такое не получается. К тому же, он в таком режиме запросто может перегреться.

7 Прогрев

Механические коробки приучили нас к тому, что работают в любых условиях. А вот автоматическая коробка все-таки требует прогрева рабочей жидкости. Не все водители соблюдают это правило, вследствие чего ресурс АКП снижается. На этом фоне «ручка» выглядит предпочтительнее. 

8 езда на буксире

Сломавшийся автомобиль с механической коробкой можно тащить на галстуке сколь угодно долго и далеко. А вот автомат требует особого внимания: как правило, разработчик разрешает перемещать такую машину на расстояние не далее 50 км при скорости не выше 50 км/ч, а то и меньше. В роли буксировщика механика также менее прихотлива, чем автомат, который может перегреться.

9 Ремонтопригодность

Победа механики нокаутом: про ремонт АКП лучше вообще не задумываться. А про замену – тем более: очень дорого. 

10 Удовольствие от вождения

Это – самый распространенный аргумент любителей механики. Дескать, я водитель, а не пассажир, за которого машина сама что-то переключает. Позиция спорная, но имеющая право на существование.

Редакция рекомендует:






Хочу получать самые интересные статьи

Авто за 300 000 с “вечными” АКПП

За прошлый год машин на «автомате» было проданы в разы больше чем на олдскульной «механике». Если взять за пример Америку, то там уже давно подавляющее большинство водителей предпочитают покупать именно авто с АКПП, в то время как в России смещение чаши весов происходит только сейчас.

Даже опытные водители, которые много лет проездили на с родной механикой, пересаживаются на автоматические коробки передач. Иногда это происходит потому, что они смогли оценить удобство этой трансмиссии, но чаще всего причина в том, что механика на современных иномарках либо предлагается только в базовой комплектации, либо вовсе отсутствует. А вот молодое поколение просто-напросто считает МКПП — пережитком прошлого. Особенно категоричны в данном решении водители-девушки.

Только вот новый автомобиль на «автомате» может стоить довольно дорого, поэтому в поисках желанной машины многие обращаются к вторичному рынку. Только вот стоит помнить, что при пробеге в 100 — 250 тысяч километров коробка передач может быть напрочь убитой. А ремонт такого типа трансмиссии обычно влетает в копеечку.

Однако, среди всего многообразия моделей, есть несколько сравнительно недорогих автомобилей, в которых установлены простые и надежные АКПП. Они, как правило, имеют ресурс около 300 тысяч километров, но даже если и сломаются, то их ремонт не проделает дыру в семейном бюджете.

На Chevrolet Lacetti в разные годы ставились разные «автоматы». Естественно, не все они были удачными и отличались небывалой выносливостью. Однако, есть одна, которую можно признать действительно неубиваемой — ZF 4HP16 с четырьмя ступенями. Если вы будете менять масло в коробке хотя бы раз в 60 тысяч пройденных километров, то она сможет прослужит вам верой и правдой долгие годы. Чаще всего они без особых проблем и необходимости ремонта доживают до 300 тысяч пробега. Есть еще одна коробка, которая также не вызывала проблем — Aisin AW 55–51. Она имела пять ступеней и ставилась только на авто с двухлитровыми моторами лишь несколько лет.

Сейчас же на такие авто часто ставятся 6-ступенчатые коробки от Opel GM 6T-30. На Lacetti они начали устанавливаться после 2008 года. Эти АКПП довольно капризны, поэтому по возможности стоит их избегать, чтобы уберечь себя от лишних проблем.

Отечественной Lada Granta достался хоть и старый, но довольно надежный агрегат японского производства — Jatco JF414E (AY-K3). Вот уже больше двадцати лет такие коробки ставятся на автомобили Nissan. За такой солидный период ее успели избавить от всех детских болезней и довели конструкцию до совершенства. Естественно, не стоит забывать менять масло примерно каждые 60 тысяч километров побега. Ресурс у нее обычно достигает 250 тысяч километров. Но после небольшого ремонта она способна прослужить еще около 150 тысяч километров.

На Chevrolet Aveo T250 также ставится отличная АКПП — Aisin 60-40LE. Она прекрасно работает с двигателями, объемом 1,4 или 1,6 литра, при этом даже не перегреваясь. Если регулярно менять масло, то она запросто прослужит до 250 тысяч километров, а при бережной эксплуатации и до 350 тысяч километров. Встречается на этой модели и другая коробка — Aisin 81-40LE. По сути она мало отличается от предыдущей, но способна выдержать меньший крутящий момент, поэтому не так надежна. Но в России они встречаются довольно редко.

На Mitsubishi Lancer десятого поколения обычно ставились коробки из серии F4A42. Как говорят специалисты, убить их невероятно сложно. Даже если периодически забывать менять масло и проводить эту процедуру не каждые положенные 60 тысяч километров, а 90 тысяч километров. Она без каких-либо проблем доживет до 250 тысяч пройденных километров и лишь потом начнет периодически намекать на необходимость ремонта. К слову, такие коробки ставились не только на «Лансеры», но и на Hyundai, Kia, а также китайские BYD.

Mazda 3 оснащалась довольно старой, но при этом качественной, коробкой, разработка которой велась еще в далеких девяностых для авто Ford/Mazda. Помимо высокой надежности такая коробка отличается довольно простым и недорогим ремонтом. При регулярном обслуживании и разумной эксплуатации эта АКПП спокойно прослужит до 200 тысяч пройденных километров.

На практически неубиваемый Ford Focus устанавливали коробки такой же серии, что и на третью «Мазду». Разница лишь в том, что на американце настройки более ресурсные, поэтому живут коробки на нем дольше, чем на тех же японцах.

Nissan Almera Classic может похвастаться замечательным «автоматом» RE4F03A. Она спокойно работает до пробега в 350 тысяч километров, но чисто ресурсный износ может начаться только после полумиллиона пройденных километров.

На Hyundai Accent ставится японский автомат от Mitsubishi — A4AF3. Он также отличается отменной выносливостью, конечно, если соблюдать регламенты обслуживания, меняя рабочую жидкость вовремя.

Фото с интернет-ресурсов

Машина на автомате глохнет при включении передачи на ходу и торможении: причины

Если глохнет машина с АКПП – значит мотор перестает крутить вал коробки передач. Отключается масляный насос, создающий в агрегате давление. Автоматически коробка переключается в режим нейтралки.



Причины:
  • залито топливо низкого качества;
  • вышел из строя регулятор массового расхода воздуха;
  • поломка датчика положения коленчатого вала;
  • не работает вакуумный усилитель тормозов;
  • засорилась дроссельная заслонка.


Посмотрите на датчик уровня топлива в баке, вдруг в суете просто забыли заправиться.

Можно ли заглохнуть на автомате

Бывает, но по естественным причинам:

  • имеются технические неисправности;
  • двигаясь по плохой дороге;
  • заканчивается горючее;
  • чрезмерная нагрузка на трансмиссию;
  • подъем в горку.

Каждый водитель должен чувствовать свой автомобиль. При неправильном управлении он может выключиться в любой момент.

Автомобиль с автоматом глохнет при трогании

Причину ищите в электрической части. Происходит потеря сигналов, идущих с основных датчиков. Например, коленвала. Чтобы уточнить причины поломки — проведите диагностику электросистемы.

Поводом бывает неисправность бензонасоса. Сторонний подсос воздуха обедняет горючую смесь, сопровождая сбой работы мотора при увеличении нагрузки.

Глохнет двигатель при включении передачи АКПП

Причина может лежать в электрической или механической части. Для уточнения необходимо остановиться и произвести отключение разъема соленоидов. Если автомобиль не заглохнет — неисправна электроника. В случае остановки силового агрегата – причина в механике или гидравлике.

При активации задней передачи

Проверьте уровень масла — он может быть завышен. Осмотрите фишку на коробке передач, установленную для задней скорости. Она может выйти из строя.

Задним ходом тронулась на автомате — машина заглохла

Из-за повышения давления может происходить блокировка гидротрансформатора. Причина — увеличенная подача масла. Начните движение с горки в положении нейтраль, а потом переключите на реверс. Почувствуется — заблокирован гидротрансформатор или нет.

АКПП глохнет при включении драйва

Сначала поменяйте в коробке масло. Иногда присутствующая грязь – основная причина. Либо неполадки в износе соленоидов. Это требует ремонта АКПП. Вторая причина — неисправность электроники, требующая диагностики. Устранение ведется на основании полученной информации.

Холодная машина выключается при включении АКПП

Вязкость масла может оказать влияние только при очень сильных морозах. В современных автомобилях этот фактор учтен. Причина может лежать в датчике оборотов, считывающем неверные показания. При поднятии температуры происходит восстановление контакта, и элемент начинает корректно выполнять работу.

Если по электрической части проблем не обнаруживается — смотрите механику. Возможно, потребуется разбор коробки.

Заглох двигатель на ходу в автомобиле с АКПП

Если машина с автоматом завелась, а потом во время движения выключилась – возможные причины:

  • засорение свечей зажигания;
  • перебои с подачей топлива;
  • неисправность электроснабжения;
  • низкий или высокий уровень масла в АКПП.

При включении скорости

Часто наблюдается при медленной езде. Во время переключения обороты проваливаются, и двигатель просто не успевает их подхватить. Причина постоянных сбоев может лежать в вышедших из строя соленоидах.

При торможении

Происходит из-за резкого понижения оборотов, когда двигатель не успевает их подхватывать и захлебывается. Иногда причина лежит в плохой работе соленоидов, требующих замены. Если с ними все в порядке — ищите неполадки вне коробки передач.

Машина с автоматом глохнет на светофоре при остановке

Причины носят тот же характер, что и во время торможения. Когда в коробку залито масло повышенной вязкости, то перед остановкой происходит быстрое падение оборотов. Часто двигатель не в состоянии их подхватить и глохнет. Регулярные выключения мотора намекают на ремонт коробки.

На малых оборотах

Проверьте регулятор холостого хода. Его необходимо промыть, а заодно проверить воздушные патрубки на предмет подсоса воздуха. Причина — залитое масло высокой вязкости.

Дизельная машина с АКПП глохнет

Происходят перебои подачи электроснабжения к узлам. Переключения передач в бортовом компьютере могут исказить настройки. Поступающий сигнал выключает двигатель. Также мотор может выключиться из-за неисправности гидродинамического трансформатора АКПП.

«Стоит покупать автомобиль на автомате с большим пробегом?» — Яндекс.Кью

Здравствуйте. Нет! Покупать автомобиль с АКПП (Автоматической Коробкой Переключения Передач) с большим пробегом в подавляющем большинстве случаев не стоит. Кто, где, когда и как на этом автомобиле с коробкой автомат в течение всего этого большого пробега ездил — неизвестно!

Коробка «автомат» имеет низкую поломкоустойчивость по сравнению с механической коробкой передач. Механизм АКПП намного сложнее, чем механизм механической коробки передач. Он заключается в переключении передач засчет гидравлики и электроники, а не засчет «железа». Всегда следует помнить — чем сложнее конструкция, тем она имеет больше точек уязвимости! Ремонт автоматической коробки будет стоить намного дороже, чем ремонт механической коробки передач. На современных автомобилях механическая коробка выходит из строя крайне редко и при соблюдении всех правил и рекомендаций правильной эксплуатации, надежно может служить весь срок службы автомобиля. На автомобилях с большим пробегом риск поломок крайне велик, и, вполне возможно, в этом случае стоимость ремонта АКПП может превысить стоимость автомобиля в целом!

Если же на новом автомобиле на автоматическую коробку есть гарантия, то в данном случае ни на какую гарантию рассчитывать явно не стоит. Даже при покупке нового автомобиля следует выяснить на какие именно поломки распространяется гарантия и по возможности узнать статистику всех возможных поломок и, исходя из этого, уже принимать решение стоит ли покупать автомобиль с АКПП.

Автоматическая коробка имеет большие механические потери и, соответственно, пониженный КПД (Коэффициент Полезного Действия). Это неизбежно приводит к снижению мощности и крутящего момента и увеличению расхода топлива на всех режимах работы автомобиля помимо снижения поломкоустойчивости, как было сказано выше.

Однако есть и «исключение из правил» когда автомобиль с АКПП можно купить и с большим пробегом. Это когда она недавно перебиралась. Но это, опять же «кот в мешке». В случае реальной покупки надо быль точно уверенным, что переборка была произведена качественно, и пробег после капремонта должен составлять примерно от 2000 километров пробега без проявления дефектов при проверке на ходу при осмотре автомобиля. В идеале такую покупку автомобиля произвести через надежных и проверенных знакомых!

Но, тем не менее, АКПП лучше, чем роботизированная или вариаторная коробка передач. Они относительно «сырые», т.е. выпускаются относительно не так давно, и, соответственно, не проверенные временем должным образом. У роботизированной часто выходит из строя механизм переключения передач, а вариаторная не выдерживает больших нагрузок.

А в целом — выбор за Вами, т.к. клиент всегда прав! Желаю принимать верные решения. Удачи!

Automatic Machine — обзор

1 Введение

Хотя машинное обучение и глубокое обучение стали бесценными в таких областях, как распознавание изображений и автоматический машинный перевод, большинство традиционных инженерных дисциплин все еще стремятся интегрировать эти мощные инструменты в свою работу. Такие промышленные приложения часто связаны со сложными системами с большим пространством входных признаков. Сложные платформы, управляемые данными, предлагают привлекательное решение, особенно когда полные модели слишком сложны или неизвестны.В то время как достижения в области сенсорных технологий позволяют собирать огромные объемы данных, результирующие наборы данных подвержены низкой изменчивости, поскольку промышленные процессы часто поддерживаются рядом с несколькими четко определенными рабочими состояниями. С другой стороны, экспериментальные исследования исследуют большие области входных признаков, но часто ограничены из-за высоких затрат. Эти две настройки приводят либо к большим наборам данных с низкой изменчивостью, либо к небольшим наборам данных с высокой изменчивостью соответственно. Однако точные модели, основанные на данных, требуют больших наборов данных с высокой изменчивостью, что делает неизбежным рассмотрение неопределенности модели.Эвристически было показано, что модели Gradient Boosted Tree (GBT) хорошо работают в реальных промышленных условиях (Friedman, 2001). Более того, модели GBT можно легко встроить в проблемы принятия решений, закодировав их в виде смешанной целочисленной линейной программы (MILP) (Mišic, 2017).

Представленный здесь алгоритм частично основан на работе Mistry et al. (2018) и Mišic (2017), которые исследуют аналогичную задачу оптимизации. В целом включение моделей, управляемых данными, в качестве суррогатных моделей в задачи оптимизации становится все более популярным (Bhosekar and Ierapetritou, 2018), например.g., алгебраические уравнения (Boukouvala and Floudas, 2017; Wilson and Sahinidis, 2017), искусственные нейронные сети (Henao and Maravelias, 2011; Schweidtmann and Mitsos, 2019) и гауссовские процессы (Palmer and Realff, 2002). Мы предлагаем алгоритм, который эффективно оптимизирует предварительно обученные крупномасштабные древовидные модели и учитывает неопределенность модели для произвольно распределенных наборов данных. Алгоритм выводит математически проверенные глобальные оптимальные решения, что имеет решающее значение во многих промышленных приложениях, например.g., производственные предприятия с высокой производственной маржой и критически важными параметрами безопасности.

Границы | BrainOS: новая платформа автоматического машинного обучения, похожая на искусственный мозг

1. Введение

Поскольку люди постоянно окружены данными, их выживание зависит от их способности понимать и оценивать свои наблюдения за внешней средой. Они формулируют и извлекают знания из полученной информации, преобразовывая данные в определенные шаблоны и модели.С этой целью задействован ряд биологических процессов и аспектов мозга (Hernandez et al., 2010). После установления агенты мозга создают и ссылаются на эти модели при каждом наблюдении.

Как исследователи, так и теоретики, специализирующиеся в области неврологии, согласны с тем, что эти агенты мозга поддерживают задачу анализа внешних данных, их обработки и принятия решений с использованием фундаментальных единиц мысли. Ховард и Хуссейн (2018) описывают этот процесс фундаментальной кодовой единицы как когнитивный минимум мысли, где обмен информацией от n до N выражается на языке, подобном ассемблеру, на нейронно-клеточном уровне.Блок фундаментального кода решает вопрос о том, поступают ли входные сигналы в мозг в их аналоговой форме или они предварительно преобразуются. Теория распознавания компонентов Бирдмана и обзор теорий геометрии восприятия Инь поддерживают модель FCU, в которой бесконечная комбинация паттернов создается из фиксированного числа компонентов (Yin, 2008). Выводы, касающиеся мозговых процессов, полученные в области нейробиологии, применяются параллельно в области искусственного интеллекта (ИИ) (Wang et al., 2016). Лучшим примером этого является машинное обучение (ML), которое основано на методах обработки мозгом внешних сигналов (входных данных) (Wang et al., 2016). Машинное обучение может имитировать поведение человеческого мозга (Louridas and Ebert, 2016), предоставляя набор подходящих и интеллектуальных методов для анализа данных (Howard and Lieberman, 2014). ML автоматизирует манипулирование данными, извлекая сложные аналитические модели. В рамках этой ветви ИИ системы способны учиться на данных и распределениях, различать закономерности и принимать автономные решения, что значительно снижает потребность во вмешательстве человека.

Привлекательность машинного обучения значительно возрастает благодаря таким факторам, как растущий спрос на инструменты интеллектуального анализа данных (Bredeche et al., 2006). Действительно, в мире, наполненном данными, интеллектуальные вычисления выгодны с точки зрения затрат и производительности (Wang and Yan, 2015). Автоматизированная обработка данных позволила создать ценные системы, способные решать все более сложные задачи и давать более точные результаты.

Три большие проблемы, с которыми все еще сталкивается ML: (1) он требует большого количества обучающих данных и зависит от предметной области, (2) он может давать противоречивые результаты для разных типов обучения или настройки параметров и (3) он дает результаты, которые может быть трудно интерпретировать при использовании таких алгоритмов черного ящика.Здесь мы предлагаем новый автоматический подход для устранения таких недостатков междисциплинарного подхода, который направлен на преодоление разрыва между статистической обработкой естественного языка (NLP) (Cambria et al., 2014) и многими другими дисциплинами, необходимыми для понимания человеческого языка, такими как как лингвистика, рассуждения здравого смысла и вычисления. Предлагаемый нами подход «ОС мозга» представляет собой интеллектуальную адаптивную систему, которая объединяет типы входных данных, обрабатывает историю и цели, исследует знания и ситуационный контекст, чтобы определить наиболее подходящую математическую модель, выбирает наиболее подходящую вычислительную инфраструктуру для выполнения обучения. , и предлагает лучшее решение для данной проблемы.BrainOS имеет возможность собирать данные по разным входным каналам, улучшать данные, использовать существующие модели ИИ, создавать другие, а также настраивать, проверять и комбинировать модели для создания более мощной коллекции моделей. Чтобы гарантировать эффективную обработку, BrainOS может автоматически калибровать наиболее подходящую математическую модель и выбирать наиболее подходящий инструмент обучения вычислениям в зависимости от поставленной задачи. Таким образом, он приходит к «оптимальным» или предоптимальным решениям. BrainOS использует как символические, так и субсимволические методы, поскольку использует модели, такие как семантические сети и представления концептуальных зависимостей, для кодирования значения, но также использует глубокие нейронные сети и множественное обучение ядра для вывода синтаксических шаблонов из данных.В архитектуре BrainOS используются концепции модели разума «критик-селектор» и подходы к лечению патологии головного мозга.

Здесь обсуждается тщательная оценка современного состояния автоматического машинного обучения, и, в частности, подробно представлена ​​предлагаемая автоматическая BrainOS. Перечислены преимущества BrainOS по сравнению с современными моделями, и представлено эмпирическое исследование для проверки предложенной структуры.

2. Современное состояние: автоматические платформы машинного обучения

ML имеет несколько моделей, которые применяют один или несколько методов к одному или нескольким приложениям.Модели машинного обучения включают машину опорных векторов (SVM) (Mountrakis et al., 2011), байесовские сети (BN) (Bielza and Larranaga, 2014), глубокое обучение (DL) (Bengio et al., 2013), деревья решений (DT) (Коциантис, 2013), кластеризация (Saxena et al., 2017), искусственные нейронные сети (ИНС) (Dias et al., 2004) и др.

Каждая модель машинного обучения представляет собой интеллектуальное вычислительное средство, обученное выполнять четко определенную задачу в соответствии с набором наблюдений. Эти интеллектуальные модели требуют набора связанных данных для извлечения знаний о рассматриваемой проблеме.Построение этих данных является решающим фактором, по которому оценивается производительность модели. Чем больше данных, тем выше производительность.

Все модели машинного обучения проходят три основных этапа: (1) получение входных данных (сигналов), (2) обработка этих данных и, наконец, (3) получение выходных данных в соответствии с решаемой задачей. Чтобы проверить, достигает ли система хорошего уровня обучения, вычисляется показатель оценки. Затем он тестируется на ряде шаблонов, которые ранее не наблюдались, и затем оценивается, приобрел ли он хорошую способность к обобщению или нет.

Для любого конкретного приложения существует ряд конкретных моделей, которые могут работать лучше, чем другие. Выбор наилучшей модели для четко поставленной задачи не подчиняется никакому правилу. Скорее, есть только инструкции о том, как поступают эти модели. Таким образом, нет никакого способа понять, как выбрать лучшую модель для проблемы.

В то время как классическое машинное обучение фокусируется на разработке новых моделей и методов без учета связанного с этим усложнения, автоматическое машинное обучение (AML) утверждает, что эти инструменты можно использовать более простым способом.Платформы AML автоматизируют большинство задач ML с меньшими затратами времени и средств на внедрение. Поэтому автоматическое машинное обучение стало горячей темой не только для промышленных пользователей, но и для академических целей.

Тонкая настройка или оптимизация является ключевым компонентом для создания подходящих моделей Hutter et al. (2019). Платформа AML решает такие вопросы, как наилучшая модель ML для различных задач, настройка модели или оптимизация гиперпараметров и т. д. (Yao et al., 2019). Простые классические методы, байесовская оптимизация и метаэвристика являются одними из наиболее часто используемых инструментов оптимизации в сфере противодействия отмыванию денег.

Для разработки таких автоматизированных платформ исследователи разработали и предложили несколько решений, например, h3O, Google Cloud AutoML и Auto-sklearn, изображенные на рисунках 1–3 соответственно. Эти фреймворки, безусловно, решили несколько проблем, но все еще далеки от стратегии, стоящей за человеческим мозгом. Что можно заметить в перечисленных методах, так это то, что разработчики используют сложные модели машинного обучения без каких-либо рассуждений; следовательно, нет объяснимого ИИ.

х3О

h3O (Landry, 2018 г.) — это платформа машинного обучения с открытым исходным кодом для предприятия.Платформа содержит модуль, который использует набор четко определенных алгоритмов для формирования конвейера. Он предоставляет специальный графический интерфейс для установки соответствующей модели, критериев остановки и набора обучающих данных.

Он поддерживает несколько линейных и сложных моделей машинного обучения, таких как глубокие нейронные сети (DNN), машины повышения градиента и т. д. Он также поддерживает методы оптимизации поиска в декартовой и случайной сетке. Он разработан в основном на основе языка разработки Java с некоторыми блоками на Python, Javascript, R и Flow.Стандартная архитектура h3O представлена ​​на рисунке 1 (Landry, 2018).

Программный стек h3O, изображенный на рис. 1, состоит из множества компонентов, которые можно разделить на две части (верхнюю и нижнюю). В верхней части выделены некоторые клиенты REST API, а в нижней части показаны компоненты, которым подвергается виртуальная машина Java.

Несмотря на простоту использования, особенно для новичков и неспециалистов в машинном обучении, h3O по-прежнему страдает от недостатка знаний в области науки о данных.Еще один недостаток касается огромного количества задействованных ресурсов. На самом деле сбои во время сложных исполнений очень вероятны.

Google Cloud AutoML

Cloud AutoML (Vinson, 2018) представляет серию продуктов, позволяющих неопытным пользователям использовать хорошо подготовленные модели, соответствующие их бизнес-запросам. Он использует сложные возможности Google, такие как трансферное обучение. Он предоставляет пользователям простой интерфейс, чтобы они могли изучать, оценивать, улучшать и развертывать методы в соответствии со своими данными.Продукты, предлагаемые этой платформой, включают AutoML Vision и видеоаналитику, AutoML на естественном языке и переводе, а также таблицы AutoML и т. д. Стандартная архитектура Cloud AutoML представлена ​​на рис. 2 (Vinson, 2018).

Эта структура в основном основана на глубоких нейронных сетях (DNN) и генетических алгоритмах. Он также просит пользователей соблюдать ограничение на размер обучающих данных. Для AutoML размер данных в таблицах не должен превышать 100 Go.

Автоматическое обучение

Auto-sklearn, предложенный Feurer et al.(2015), использует байесовскую тонкую настройку для настроек гиперпараметров. Это улучшенная версия системы scikit-learn (предыдущее автоматическое машинное обучение). Стандартная архитектура Auto-sklearn представлена ​​на рисунке 3.

Существует 15 подходов к классификации, 14 методов предварительной обработки и четыре метода проектирования признаков. Несмотря на продвинутую структуру, пакет этого инструментария не поддерживает ввод на естественном языке. Следовательно, он не может отличить категориальные данные от цифровых данных (Feurer et al., 2015).

Хотя большинство ранее существовавших платформ машинного обучения эффективно решили несколько проблем, таких как распознавание объектов и понимание изображений, они все еще далеки от моделирования процессов человеческого мозга. ML пытался имитировать мозг в качестве модели для вычислений, например алгоритмов нейронных сетей, однако ML по-прежнему не может работать так же хорошо, как человеческий мозг. Мы предлагаем новую платформу автоматического машинного обучения под названием «BrainOS». Предлагаемая системная архитектура и работа биологически вдохновлены нейронными клетками, разработанными на очень низком уровне абстракции.

Рисунок 1 . Стандартная архитектура h3O. h3O разработан в основном на языке Java с некоторыми блоками, основанными на Python, JavaScript, R и Flow. Стек программного обеспечения состоит из верхней и нижней частей, разделенных сетевым облаком. В верхней части показаны некоторые клиенты REST API, а в нижней — компоненты, подвергающиеся виртуальной машине Java (изображение предоставлено h3O.ai).

Рисунок 2 . Стандартная архитектура Google Cloud AutoML.Cloud AML предлагает простой интерфейс, позволяющий неопытным пользователям использовать модели в соответствии со своими потребностями. Используя DNN и генетические алгоритмы, Cloud AutoML обучает модели машинного обучения, развертывает модели на основе пользовательских данных и сохраняет обученные данные в облачном хранилище. Фреймворк генерирует прогнозы с помощью REST API (изображение предоставлено Google Cloud).

Рисунок 3 . Стандартная архитектура Auto-sklearns. Auto-sklearn использует байесовскую тонкую настройку для настроек гиперпараметров.Программа использует 15 подходов к классификации, 14 методов предварительной обработки и четыре метода проектирования признаков.

3. BrainOS: новая платформа автоматического машинного обучения

Привлеченные силой способности человеческого мозга рассуждать и анализировать объекты и идеи, мы предлагаем новую автоматическую среду машинного обучения под названием «BrainOS». Архитектура и работа системы вдохновлены поведением нейронных клеток.

Поскольку в существующих моделях машинного обучения есть много проблем, связанных с чрезмерными данными обучения, зависящими от задачи, и не поддающимися интерпретации результатами, BrainOS устраняет эти недостатки.Действительно, он обеспечивает междисциплинарный подход, способный работать с обработкой естественного языка (NLP), так что разрыв между статистическим NLP и многими другими дисциплинами, необходимыми для понимания человеческого языка, сводится к минимуму. Лингвистика, здравый смысл и аффективные вычисления необходимы для анализа человеческого языка. BrainOS использует как символические, так и субсимволические методы, используя такие модели, как семантические сети и представления концептуальных зависимостей, для кодирования значения. Кроме того, он использует DNN для вывода синтаксических аспектов из данных.

3.1. Высокоуровневая модель BrainOS

Благодаря своим антропоморфным возможностям и способности адаптироваться к данным, BrainOS может быть очень полезна в различных типах приложений, поскольку она способна реагировать по-разному в зависимости от профиля и предпочтений пользователя. Адаптация данных означает возможность выбора наиболее адекватной математической модели с точки зрения полученных входных данных.

Высокоуровневая архитектура BrainOS представлена ​​на рис. 4. Уровень входных данных состоит из точек данных, поступающих из различных исходных каналов (датчиков, видео, изображений и т. д.).При подаче через этот уровень данные проходят многочисленные этапы поиска и обработки данных. Например, входные точки могут быть идентифицированы, типизированы и предварительно обработаны. Методы выборки также могут быть использованы на этом уровне. Уровень обработки данных определяет ряд интеллектуальных подходов в соответствии со следующими этапами:

Механизм критического выбора : объединяет типы входных данных, обрабатывает историю и цели, исследует знания и ситуационный контекст, чтобы определить наиболее подходящую модель машинного обучения для существующих данных и то, как система должна управлять ресурсами обработки.

Обработка данных с использованием конвейеров машинного обучения : Ряд вертикальных и горизонтальных конвейеров для распространения данных может помочь подготовить данные быстрее и эффективнее.

Обучение моделям и/или трансферное обучение : Отсутствие изоляции алгоритмов и использование знаний из предыдущей задачи для решения связанных задач повышает эффективность и точность.

Рисунок 4 . Высокоуровневая архитектура Brain OS. Информация о входных данных поступает из различных смешанных каналов входных данных.Контекст реального мира извлекается из контейнера метамира. Цель представляет собой цель задачи обработки и желаемые результаты. Затем создается наиболее подходящая модель и сохраняется в репозитории моделей для будущего использования или выбирается из уже существующей модели в репозитории. Выходные данные содержат результаты и выводы, полученные после обработки данных.

Уровень выходных данных содержит результаты и выводы, полученные после прохождения уровня обработки данных.

BrainOS адаптируется к различным каналам данных. Он использует несколько методов обработки данных и компонентов выбора модели. Подобно человеческому мозгу, BrainOS использует архив данных, знаний и моделей машинного обучения. BrainOS усилен сложным метакомпонентом квалификатора-оркестратора. Селектор модели критика находится в оркестраторе, чтобы дать ответ на вопрос «Какой инструмент лучше всего выбрать для данной проблемы?».

Основанная на человеческом мозге, который использует разные области нейронов для обработки входных данных, в зависимости от типа рецептора, предлагаемая инфраструктура основана на ансамбле ресурсов, которыми управляет критик-селектор (включается и выключается), во многом в как работает биологический разум.

3.2. Фундаментальная архитектура BrainOS

Ключевой концепцией BrainOS является ее адаптируемость к решаемой задаче. Он выбирает соответствующие модели для характера входных данных. На рис. 5 представлен более подробный обзор архитектуры всей инфраструктуры. Как показано на рисунке 5, топология BrainOS характеризуется рядом компонентов. В следующем разделе каждый компонент подробно описан.

Рисунок 5 . Подробная архитектура BrainOS.

3.3. Компонент формализации проблемы

Формализация проблемы является основной точкой входа в систему. Он содержит три подкомпонента: данные, информацию о метамире и цель задачи. Эти три компонента содержат всю необходимую связанную информацию, связанную с данными и задачей, подлежащей обработке. Входные данные хранятся в контейнере данных, в то время как общие и реальные контекстные данные хранятся в контейнере метамира. Цель задачи представляет собой основную цель проблемы, которую необходимо решить, и желаемые результаты.

Для согласованности входные точки данных должны соответствовать определенной схеме. Это можно сделать с помощью API для подключения BrainOS к другим пакетам машинного обучения, чтобы поддерживать целостность и согласованность задачи. На рис. 6 представлен пример компонента формализации задачи.

Рисунок 6 . Компонент формализации проблемы. Компонент формализации проблемы включает в себя смешанные входные данные, общий контекст данных реального мира, содержащийся в контейнере метамира, и основную цель задачи обработки, а также желаемые результаты.

3.4. Критический компонент

Компонент критики (квалификатор) использует формулировку проблемы и историю BrainOS (метамир знаний) для улучшения набора данных, подаваемых в систему. Он улучшает данные с помощью устаревших наборов данных, которые дополняют текущие входные функции в модуле, называемом средством улучшения данных. Кроме того, он применяет квалификации, накладывает ограничения и выстраивает требования для достижения промежуточного уровня. На рисунке 7 показана архитектура компонента критика.

Рисунок 7 . Компонент квалификатор (критик). Компонент квалификатора улучшает наборы данных, подаваемые в систему, и применяет квалификацию, накладывает ограничения и создает требования для достижения промежуточного результата.

3.5. База данных истории

Предложение адаптивной системы обучения в нестационарном пространстве похоже на человеческий аспект рассуждения. На самом деле, люди используют свои знания и опыт, чтобы найти решение любой проблемы. Вдохновленная этой необычайной способностью, BrainOS сочетает в себе как минимум два подкомпонента памяти: знания о мире и историю.На рис. 8 показана архитектура компонента базы данных истории.

1. История BrainOS: включает в себя опыт, приобретенный в течение жизненного цикла системы с точки зрения встречающихся наборов данных, ранее использованных моделей и достигнутых результатов. Такой ресурс быстрого доступа к памяти имеет большое значение, особенно в ситуациях, когда платформа сталкивается с уже решенными проблемами. В этом случае система использует «рефлекторный ответ».

2. Мировое знание: содержит мировое знание «здравого смысла», накладывая от общих до предметно-специфических понятий.Пакет знаний предметной области содержит множество областей, в которых инфраструктуре требуется эксперт по знаниям. Интегрированный исследовательский опыт состоит из моделей и выводов, сделанных на основе реальных знаний, включающих следующие два компонента:

Сохраненные модели : включают неограниченные ранее обнаруженные ресурсы.

Более абстрактные исследовательские знания : большое информационное поле. Это может быть выполнено с конкретными формулировками проблем, отдельными решениями проблем или точными наборами данных.

Рисунок 8 . Компонент базы данных истории. Компонент базы данных истории состоит из мировых знаний, а также истории Brain OS. Подкомпонент мировых знаний содержит пакет знаний предметной области для обхода НЛП и онтологий, а также исследовательский опыт, состоящий из сохраненных моделей и более абстрактных исследовательских знаний.

3.6. Компонент планировщика

Планировщик в основном основан на обработанной проблеме и истории использованных моделей.Он может установить наиболее адекватный поток обработки для решаемой проблемы в соответствии с мировым знанием, целью и сходством текущей задачи с теми, которые рассматривались в прошлом.

Например, для задачи извлечения намерений из изображения планировщик может предписать следующие шаги:

• Запустите алгоритмы субтитров на изображении, чтобы получить нарративизацию изображения.

• Запустить обнаружение объектов и распознавание активности на изображении.

• Запустите алгоритм для получения онтологии для ранее извлеченных понятий.

• Сделать вывод о намерении, используя все ранее полученные объекты и онтологии.

Планировщик играет роль большого знания двунаправленного графа, в котором могут быть запущены специальные алгоритмы эвристического поиска для обнаружения правильной последовательности узлов для данной задачи. Архитектура планировщика представлена ​​на рисунке 9.

Рисунок 9 . Архитектура планировщика. Планировщик устанавливает наиболее адекватный поток обработки для проблемы в соответствии с мировыми знаниями.В планировщике могут быть запущены специальные алгоритмы эвристического поиска для определения правильной последовательности узлов для данной задачи.

3.7. Параллельный исполнитель

Параллельный исполнитель играет роль планировщика задач. Этот компонент строит модели, хранит модули решений и выбирает инфраструктуру. Он управляет тем, когда, какие и как потоки будут выполняться после того, как они поступят из селектора.

Параллельный исполнитель запускает несколько потоков для удобной структуры.На основе моделей, предоставленных селектором, исполнитель создает новые модели или объединяет существующие. Он разделяет соответствующие задачи на параллельные потоки, обрабатывая их одновременно. Архитектура параллельного исполнителя представлена ​​на рисунке 10.

Рисунок 10 . Параллельный исполнитель. Параллельный исполнитель создает новые модели или объединяет существующие. Он разделяет соответствующие задачи на параллельные потоки, обрабатывая их одновременно.

3.8. Планировщик модулей

Планировщик модулей получает потоки, отправленные параллельным исполнителем, и планирует расписание выполнения решения.Это дает возможность параллельного выполнения с использованием разных ресурсов.

3.9. Компонент селектора

Селектор, ключевой компонент BrainOS, выбирает адекватную модель в соответствии с формулировкой задачи. С целью предоставления подходящих моделей Селектор параллельно выполняет следующие шаги:

1. Поиск адекватной модели в истории BrainOS. Если найдено хорошее соответствие, соответствующий инструмент оптимизируется, обучается и оценивается.

2. В противном случае поиск в исследовательских знаниях, включая опубликованные статьи и исходные коды. Если подходящий кандидат найден, то он настраивается, изучается и оценивается.

3. Создание инструмента с нуля после определения типа и топологии. После этого модель настраивается, обучается и оценивается.

4. Выполнение ансамблевого обучения путем объединения нескольких моделей, что может дать более точные результаты, чем модель с более высокой точностью.

Поэтому, прежде чем селектор примет модель решения для данной формулировки проблемы, он анализирует, существует ли комбинация моделей, которая может превзойти выбранную модель.Если Селектор находит такое сочетание моделей, то модельное решение представляет собой ансамбль моделей. Архитектура селектора модулей представлена ​​на рисунке 11.

Рисунок 11 . Селектор. Селектор запускает селектор исторической модели, построитель на основе исследований, сборщик моделей и конструктор моделей параллельно. Селектор модели истории ищет подходящую модель в истории BrainOS. Research-Based Builder выполняет поиск опубликованных документов и исходного кода, чтобы найти подходящую модель.Сборщик моделей объединяет несколько моделей, что может дать лучшие результаты, чем модель с более высокой точностью. Разработчик моделей создает инструменты с нуля. Процессор модели оценивает и обучает выбранные модели.

Выбранный набор моделей, формулировка задачи и заданная точность затем архивируются в истории BrainOS. Четыре подхода выполняются параллельно, при этом каждый модуль записывает лучшую модель в онлайн-репозиторий моделей.

Критерий определяет, является ли поиск достаточно подходящим подходом в соответствии с заранее определенными целями, или когда один из модулей следует исключить из поиска.Для каждой части плана обработки BrainOS выбираются соответствующие модели. Целесообразно предоставлять различные специализированные экземпляры селектора, специфичные для предметной области, каждый из которых оптимизирован для определенных знаний предметной области или контекста проблемы. Например, для целей классификации можно использовать SVM, кластеризацию K-средних, ANN и другие инструменты. Для задач, зависящих от времени, настоятельно рекомендуются рекуррентные архитектуры, такие как рекуррентные нейронные сети (RNN) (Chouihi et al., 2017). Для решения проблем проектирования признаков, анализ независимых компонентов (ICA) (Henriquez and Kristjanpoller, 2019), анализ независимых компонентов (PCA) (Kacha et al., 2020), автоэнкодеры (AE) (Xu et al., 2016), матричная факторизация и различные формы кластеризации.

Что касается задач оптимизации, то существует множество полезных методов, таких как эволюционные вычисления (Чоуихи и др., 2016), глобальная оптимизация, наивная оптимизация и т. д.

3.10. Компонент оркестратора

На высоком уровне абстракции BrainOS играет роль инфраструктуры, ориентированной на оркестратора, поскольку она отслеживает общие модели. Он расположен в графе, чтобы выбрать пути обработки.Предлагаемая структура кажется мощной, поскольку она может использовать любой подход от обучения с учителем до обучения без учителя, обучения с подкреплением, алгоритмов поиска или любой их комбинации.

Оркестратор — это метакомпонент, который объединяет входные данные, обрабатывает историю и цели, а также исследует знания и ситуационный контекст, чтобы определить наиболее подходящую модель машинного обучения для данной формулировки проблемы. Оркестратор состоит из четырех компонентов: селектора моделей, классификатора проблем, планировщика и параллельного исполнителя.

4. Интерпретации

Наша оценка BrainOS сосредоточена на следующих вопросах:

Вопрос 1 Гибкость и адаптируемость : Достаточно ли возможностей BrainOS для работы с большим разнообразием областей применения?

Вопрос 2 Быстрая сходимость : BrainOS выполняет определенную задачу быстро или требуется много времени для сходимости?

Вопрос 3 Точность : Как BrainOS обеспечивает получение точных результатов?

4.1. Гибкость и адаптивность

Одной из наиболее важных характеристик BrainOS является ее гибкость для решения нескольких задач. BrainOS можно адаптировать для большого количества существующих задач, а также расширить для новых подходов. Здесь мы приводим лишь небольшую часть возможных областей применения BrainOS. Его можно применять к антропоморфизму в проблемах взаимодействия человека и машины, включая эмуляцию личности и эмоциональный интеллект. Более того, BrainOS актуальна для диагностики и лечения заболеваний головного мозга (например,г., болезнь Альцгеймера, болезнь Паркинсона и др.), автоматизированные производственные системы, управление энергопотреблением и др.

На самом деле модули внутренней памяти, встроенные в архитектуру BrainOS, хранят предыдущий опыт и знания. Это дает нашей платформе возможность решать любые приложения, даже с высоким уровнем абстракции. Что отличает предлагаемую парадигму от уровня техники, так это согласованность с концептуальными данными, такими как НЛП. Действительно, он устраняет недостатки существующих моделей при решении многих контекстуальных задач.Кроме того, он предоставляет множество моделей машинного обучения, каждая из которых работает в определенной области.

4.2. Быстрая сходимость

BrainOS может сократить время выполнения. Если проблема была решена ранее, а другая проблема в том же контексте собирается передать BrainOS, ранее использованная модель может быть непосредственно найдена в истории BrainOS и использована для решения новой задачи. В этом случае нет необходимости переходить к селектору и последующим компонентам. Кроме того, одна из общих проблем автоматических систем машинного обучения заключается в том, чтобы быстро решить, как выбрать модель, которая лучше всего подходит для данной задачи.BrainOS включает в себя компонент выбора, который автоматически и напрямую выбирает лучшие модели в соответствии с поставленной задачей. Это может быть выгодно с точки зрения времени выполнения. Кроме того, BrainOS поддерживает параллельное выполнение, одновременно запуская несколько потоков через компонент параллельного исполнителя. Это может сэкономить много времени и ускорить обработку данных.

4.3. Точность

BrainOS содержит множество компонентов, образующих уровни, по которым циркулируют данные. На большинстве этих уровней происходит хранение исторической обработки и моделей и знаний из мирового опыта.Запись предыдущих моделей и их результатов дает априорные указания о том, какую модель использовать. Кроме того, BrainOS предоставляет несколько методов оптимизации, а также модели машинного обучения, способные обеспечить широкие возможности обобщения. Также возможно проводить ансамблевое обучение, выполняя несколько моделей одновременно и выбирая лучшую.

4.4. Доступность и масштабируемость

Служба обработки данных

отвечает за сбор данных из различных входных каналов, их распаковку и сохранение для последующего использования.Существует большое количество каналов данных, которые могут отправлять данные в BrainOS. Таким образом, в облаке потребуется высокая масштабируемость при записи этих данных, а также будет потребность в хранении их большого объема. Существуют различные технологии, которые могут поддерживать это, но наиболее подходящими, которые могут обеспечить постоянное увеличение входных данных и высокий параллелизм входящих данных, являются те, которые основаны на парадигме публикации/подписки. В этом конкретном случае обработки данных входы будут действовать как издатели данных, а BrainOS, которая обрабатывает данные, как подписчик.

5. Эмпирические результаты

В настоящее время реализация моделей AML, таких как решение Google AI, вероятно, будет подвержена большим задержкам, вычислительным затратам и энергопотреблению. Это связано с огромным потоком данных, представленным большими наборами данных. Большая проблема, которую индустрия не сможет легко решить, заключается в том, что она использует цифровые арифметические единицы и логические вентили, которые сами по себе не соответствуют тому, как работают нейроны и синапсы. Таким образом, это представляет собой плохой подход к реализации глубоких нейронных архитектур.Чтобы продолжать решать более сложные проблемы, использование все большего количества оборудования является обязательным, но неустойчивым. Предлагаемая BrainOS находится в процессе реализации. Мы разрабатываем и тестируем некоторые модули BrainOS, и мы соберем все модули в один фреймворк. Например, мы работаем с совершенно новой архитектурой для глубоких нейронных сетей (DNN), которую мы называем Deep Cognitive Neural Network (DCNN) (Howard et al., 2019).

5.1. Глубокая когнитивная нейронная сеть (DCNN)

DCNN — одна из новых моделей машинного обучения, обладающая характеристиками, сходными с человеческим мозгом, такими как восприятие и рассуждение, и гораздо лучше подходит для построения нейронных сетей.Ценность этой новой архитектуры заключается в том, что анализ больших данных можно выполнять практически в режиме реального времени на небольших устройствах, таких как мобильные телефоны и устройства IoT. Предлагаемая архитектура DCNN, показанная на рисунке 12, состоит из одного миллиона нейронов и 2,5 миллиардов синапсов. DCNN обладает замечательным свойством одновременно приобретать высокоэффективную реализацию, быстрое принятие решений и превосходное обобщение (долгосрочное обучение). DCNN обладает высокой энергоэффективностью в вычислениях со сверхнизкими требованиями к энергии, которые могут быть легко реализованы как в аппаратном, так и в программном обеспечении, поскольку ее нейроны могут быть представлены простыми уравнениями, состоящими из операций сложения, вычитания и деления.Высокоэнергетическая реализация неглубоких нейронных сетей с использованием комплементарной технологии металл-оксид-полупроводник (CMOS) или вероятностной CMOS (PCMOS) показала, что они до 300 раз более эффективны с точки зрения продукта энергоэффективности (EPP). Существенный выигрыш на операцию пропорционален, что зависит от всего приложения, где ожидается большой выигрыш с глубокими структурами для крупномасштабной обработки.

Рисунок 12 . Архитектура DCNN (1000 скрытых слоев, 1 миллион нейронов и 2.5 миллиардов синапсов).

5.2. DCNN Быстрое принятие решений

DCNN была обучена и протестирована с использованием современного набора данных MNIST (LeCun et al., 1998). Результаты принятия решений показаны на рис. 13. Видно, что для очень крупномасштабной обработки DCNN продемонстрировала до 300 раз более быстрое принятие решений по сравнению с современным многоуровневым персептроном (MLP). на основе глубокой нейронной сети.

Рисунок 13 . Скорость принятия решений: для очень крупномасштабной обработки DNN результаты моделирования DCNN показали в 300 раз более быстрое принятие решений по сравнению с современной глубокой нейронной сетью на основе многослойного персептрона (MLP), включающей один миллион нейронов и 2.5 миллиардов синапсов.

5.3. Интеграция DCNN с алгоритмом рассуждений

Еще одним уникальным свойством разработанной DCNN является ее быстрая адаптируемость и конвергентность при интеграции с алгоритмами рассуждений для достижения человекоподобных вычислений (как восприятия, так и рассуждений одновременно) в режиме реального времени. Крупномасштабное моделирование показало до 80 раз более быстрое принятие решений. Смоделированная структура рассуждений/оптимизации показана на рисунке 14. На рисунке 14A показана процедура распознавания и адаптации на основе DCNN, обученная на оптимизированном наборе данных, созданном инфраструктурой оптимизации.Структура оптимизации показана на рисунке 14B, которая отвечает за анализ и рассуждения. В этой структуре модуль обучения помогает процессу рассуждений в выборе наилучших конфигураций для использования в новой предстоящей ситуации. Принимая во внимание, что модуль рассуждений [например, генетический алгоритм (ГА)] использует модуль обучения для максимизации функции полезности. Предлагаемая структура используется для оптимизированного и автономного управления мощностью в беспроводных системах восходящей линии связи. Результаты моделирования продемонстрировали значительное улучшение производительности структуры DCNN + GA по сравнению с DNN + GA с точки зрения принятия решений в реальном времени.В частности, в автономном режиме оптимизации DCNN занимало 0,28 с/решение по сравнению с 2 мин DNN/решение. Тем не менее, как только DCNN обучена на оптимизированном наборе данных, она работала в 300 раз быстрее, чем DNN, как показано на рисунке 14. Более подробная информация о структуре оптимизации и наборе данных подробно представлена ​​в Adeel et al. (2016).

Рисунок 14 . Оптимизированное принятие решений на основе DCNN. (A) Оптимальная адаптация в режиме реального времени на основе DCNN. (B) Извлечение оптимизированного набора данных: данные сначала собираются для обучения, что помогло процессу рассуждений на основе ГА создать оптимизированный набор данных.

Мы считаем, что предлагаемая нами DCNN является оптимальным выбором для будущих устройств со сверхнизким энергопотреблением и энергоэффективных устройств, способных обрабатывать массивы математических вычислений в режиме реального времени как для обобщенного обучения, так и для приложений оптимизации. Чтобы получить больше гибкости для работы с различными приложениями, в настоящее время мы внедряем регрессионную модель DCNN, а также разрабатываем и тестируем другие модули BrainOS. В последнее время мы соберем все модули в один фреймворк.

6. Заключение

Наша работа была мотивирована как интеллектуальной целью создания модели человеческого интеллекта, которая лучше соответствует тому, как работает мозг и познание, так и связанной с этим практической целью создания более эффективного подхода к машинному обучению; в частности, подход с автоматическим ML. Хотя подходы машинного обучения и искусственного интеллекта, как правило, основывались на дублировании мозговых и когнитивных функций, их различная пригодность для различных типов проблем означает, что ни одна модель не подходит для всех задач.Путь вперед, как многие давным-давно предполагали, состоит в том, чтобы выяснить, как выбрать подход (который может быть одной моделью или системой моделей) автоматическим, рациональным/объяснимым образом для любой конкретной проблемы, чтобы получить оптимальные результаты. решения этой проблемы. Это означает выбор и калибровку (т. е. выбор параметров) системы/архитектуры моделей. Система BrainOS, описанная в этой статье, отличается от существующих автоматических инструментов машинного обучения тем, что она автоматизирует и как она это делает. Он исходит из существующих таксономий подходов в литературе по автоматическому машинному обучению для разработки собственной архитектуры.Предварительные исследования убедили нас, что BrainOS может решать сложные задачи высокого уровня, такие как обработка естественного языка.

Вклад авторов

NH участвовал в разработке предлагаемого подхода. NC отвечал за обзор состояния дел и написание статьи. AA задумала и совместно разработала первоначальную идею оптимизированного принятия решений на основе DCNN и DCNN. К.Д. внес существенный вклад в написание и редактирование рукописи. AHo выступил соавтором предложенной архитектурной модели.AHu отвечал за общее планирование и руководство предлагаемым подходом, включая структуру DCNN.

Конфликт интересов

Авторы заявляют, что исследование проводилось при отсутствии каких-либо коммерческих или финансовых отношений, которые могли бы быть истолкованы как потенциальный конфликт интересов.

Благодарности

Авторы выражают благодарность Мандару Гогейту из Эдинбургского университета Нейпира и Хади Лариджани из Каледонского университета Глазго за их вклад в DCNN и структуру оптимизации, которые цитируются здесь для справки.

Каталожные номера

Адил, А., Лариджани, Х., и Ахмадиния, А. (2016). Новая структура принятия решений на основе случайной нейронной сети для оптимизированного и автономного управления мощностью в системе восходящей линии связи LTE. Физ. коммун. 19, 106–117. doi: 10.1016/j.phycom.2015.11.004

Полнотекстовая перекрестная ссылка | Академия Google

Бенжио, Ю., Курвиль, А., и Винсент, П. (2013). Обучение представлению: обзор и новые перспективы. IEEE Trans. Анальный узор. Мах.Интел. 35, 1798–1828 гг. doi: 10.1109/ТПАМИ.2013.50

Реферат PubMed | Полный текст перекрестной ссылки | Академия Google

Бредеш, Н., Ши, З., и Цукер, Дж. Д. (2006). Перцептивное обучение и абстракция в машинном обучении: приложение к автономной робототехнике. IEEE Trans. Сист. Человек Киберн. Приложение C 36, 172–181. doi: 10.1109/TSMCC.2006.871139

Полнотекстовая перекрестная ссылка | Академия Google

Камбрия, Э., Уайт, Б., Дуррани, Т., и Ховард, Н.(2014). Вычислительный интеллект для обработки естественного языка. IEEE вычисл. Интел. Маг. 9, 19–63. doi: 10.1109/MCI.2013.22

Полнотекстовая перекрестная ссылка | Академия Google

Чуихи, Н., Аммар, Б., Рокбани, Н., и Алими, А. М. (2017). Анализ параметров сети эхо-состояний на основе PSO для прогнозирования временных рядов. Заяв. Мягкий компьютер. 55, 211–225. doi: 10.1016/j.asoc.2017.01.049

Полнотекстовая перекрестная ссылка | Академия Google

Чуихи, Н., Фдхила Р., Аммар Б., Рокбани Н. и Алими А. М. (2016). «Одноцелевая и многоцелевая оптимизация скопления частиц структуры резервуара в сети эхо-состояний», в International Joint Conference on Neural Networks (IJCNN) (Ванкувер, Британская Колумбия), 440–447.

Академия Google

Диас Ф.М., Антунес А. и Мота А.М. (2004). Искусственные нейронные сети: обзор коммерческого оборудования. англ. заявл. Артиф. Интел. 17, 945–952. doi: 10.1016/j.engappai.2004.08.011

Полнотекстовая перекрестная ссылка | Академия Google

Feurer, M., Klein, A., Eggensperger, K., Springenberg, J.T., Blum, M., and Hutter, F. (2015). «Эффективное и надежное автоматизированное машинное обучение», в Система обработки нейронной информации , редакторы Ф. Хаттер, Л. Котхофф и Дж. Ваншорен (Cham: Springer), 113–114.

Академия Google

Энрикес, Дж., и Кристьянполлер, В. (2019). Комбинированный анализ независимых компонентов и модель нейронной сети для прогнозирования изменения обменного курса. Заяв. Мягкий компьютер. 83:105654. doi: 10.1016/j.asoc.2019.105654

Полнотекстовая перекрестная ссылка | Академия Google

Hernandez, C., Sanz, R., Ramirez, J.G., Smith, L.S., Hussain, A., Chella, A., et al. (2010). «От мозга к системам», в Brain-Inspired Cognitive Systems , редакторы К. Эрнандес, Р. Санс, Дж. Гомес Рамирес, Л. С. Смит, А. Хуссейн, А. Челла и И. Александр (Нью-Йорк, штат Нью-Йорк). : Springer-Verlag), 1–250.

Академия Google

Ховард, Н., Адил А., Гогейт М. и Хуссейн А. (2019). Глубокая когнитивная нейронная сеть (DCNN) . Патентное приложение США. 16/194 721. Вашингтон, округ Колумбия: Ведомство США по патентам и товарным знакам.

Академия Google

Ховард, Н., и Либерман, Х. (2014). Мозговое пространство: связь нейронауки со знаниями о повседневной жизни. Познан. вычисл. 6, 35–44. doi: 10.1007/s12559-012-9171-2

Полнотекстовая перекрестная ссылка | Академия Google

Хаттер Ф., Котхофф Л. и Ваншорен Дж.(2019). Автоматизированное машинное обучение . Чам: Спрингер.

Академия Google

Кача, А., Гренез, Ф., Рафаэль, Дж., Арройав, О., и Шентген, Дж. (2020). Анализ главных компонент спектрограммы речевого сигнала: интерпретация и применение к дизартричной речи. Вычисл. Речь Ланг. 59, 114–122. doi: 10.1016/j.csl.2019.07.001

Полнотекстовая перекрестная ссылка | Академия Google

Коциантис, С. Б. (2013). Деревья решений: недавний обзор. Артиф. Интел. Ред. 39, 261–283. doi: 10.1007/s10462-011-9272-4

Полнотекстовая перекрестная ссылка | Академия Google

Ландри, М. (2018). Машинное обучение с помощью R и h3O . Маунтинвью, Калифорния: h3O.ai, Inc.

.

Академия Google

Маунтракис, Г., Им, Дж., и Оголе, К. (2011). Машины опорных векторов в дистанционном зондировании: обзор. J. Фотограмм. Рем. Sens. 66, 247–259. doi: 10.1016/j.isprsjprs.2010.11.001

Полнотекстовая перекрестная ссылка | Академия Google

Саксена, А., Prasad, M., Gupta, A., Bharill, N., Patel, O.P., Tiwari, A., et al. (2017). Обзор методов и разработок кластеризации. Нейрокомпьютинг 267, 664–681. doi: 10.1016/j.neucom.2017.06.053

Полнотекстовая перекрестная ссылка | Академия Google

Винсон, Б. (2018). Машинное обучение с помощью Google Cloud Platform . Технический отчет, Google Cloud.

Ван Х. и Ян Х. (2015). Оптимизация сети эхо-состояний с помощью алгоритма оптимизации роя бинарных частиц. Знать. На основе сист. 96, 182–193. doi: 10.1016/j.knosys.2015.06.003

Полнотекстовая перекрестная ссылка | Академия Google

Wang, Y., Widrow, B., Zadeh, L.A., Howard, N., Wood, S., Bhavsar, V.C., et al. (2016). Когнитивный интеллект: глубокое обучение, мышление и рассуждения с помощью систем, вдохновленных мозгом. Междунар. Дж. Когн. Сообщить. Природный интеллект. 10, 1–20. doi: 10.4018/IJCINI.2016100101

Полнотекстовая перекрестная ссылка | Академия Google

Сюй, Дж., Сян, Л., Liu, Q., Gilmore, H., Wu, J., Tang, J., et al. (2016). Многослойный разреженный автоэнкодер (SSAE) для обнаружения ядер на гистопатологических изображениях рака молочной железы. IEEE Trans. Мед. Визуализация 35, 119–130. doi: 10.1109/TMI.2015.2458702

Реферат PubMed | Полный текст перекрестной ссылки | Академия Google

Yao, Q., Wang, M., Chen, Y., Dai, W., Hu, Y.Q., Li, Y.F., et al. (2019). Убираем человека из обучающих приложений: обзор автоматизированного машинного обучения . Технический отчет, arXiv:1810.13306 [cs.AI], ArXiV.

Академия Google

Инь, П.-Ю. (2008). Теория распознавания когнитивных образов , Глава Методы распознавания образов. Вена: I-tech.

Академия Google

Стоит ли покупать суперавтоматические эспрессо-машины?

Суперавтоматическая эспрессо-кофемашина предназначена для того, чтобы делать большую часть работы за вас — как и Nespresso, только та, которая выдает превосходные результаты. Вы насыпаете кофейные зерна в бункер и доливаете воду в бак каждые несколько дней, но Magnifica и Incanto перемалывают зерна по требованию, прессуют их в хоккейную шайбу мелкого помола (размером примерно с полдюжины Pogs). , точно нагрейте воду и пропустите эту горячую воду через сжатую гущу.

Менее чем за минуту свежая порция эспрессо выстреливает из сопла в соответствии с вашими требованиями. Одинарная, двойная, Американо, одна чашка, две чашки… все это возможно одним нажатием кнопки. Обе мои модели поставлялись с насадкой для взбивания молока для капучино и латте, а также насадкой для горячей воды.

Что подключено к этим машинам?

Пользовался этими машинками пол года. Они готовят порции эспрессо со скоростью, с которой может сравниться только Nespresso с системой капсул.В зависимости от зерен, этот эспрессо часто был намного намного насыщеннее и вкуснее, чем готовый. У Nespresso много вкусов, но капсулы, которые вы покупаете, все равно не измельчаются на месте и просто не могут иметь аромат или вкус свежесваренного эспрессо.

Даже когда у меня мёртвая душа в 7 утра, не сложно нажать кнопку включения, подождать, поставить кофейную чашку под насадку, нажать иди. Это проще, чем отмерять порции кофейной гущи для капельной машины или загружать френч-пресс.

Я уверен, что некоторые из вас, дорогие читатели, могли бы выпивать чистую порцию эспрессо каждый день. Но после нескольких месяцев, когда я в основном пил из этих машин, я начал ценить их способность раздавать горячую воду по требованию, чтобы разбавить мою двойную порцию чем-то более похожим на чашку кофе, а по выходным я иногда выкладывался по полной, отсоединял насадку для воды и вставьте в кувшин для взбивания молока, чтобы приготовить капучино и латте. И Incanto, и Magnifica S готовят латте так же хорошо, как и любая другая машина, которую я использовал.

Мое время с Magnifica S

DeLonghi

DeLonghi’s Magifica S была первой машиной, которую я попробовал, и я резко проснулся, когда впервые включил ее. Он был довольно громким, и после того, как он прогрелся серией механических звуков вращения шестерен, он немедленно начал автоматический цикл очистки, проталкивая через систему двойную порцию (2 жидких унции) горячей воды. Я изо всех сил пытался поставить чашку под него, и мне удалось захватить большую часть воды. Остальное ушло в поддон для сбора капель, который явно рассчитан на большой объем воды.

Полуавтоматические и полностью автоматические машины — Piedmont National

Полуавтоматические и полностью автоматические машины

Один из первых вопросов, который задают как внутренние торговые представители, так и внешние конечные пользователи, — когда следует автоматизировать?

Ответ состоит из нескольких факторов, включая, помимо прочего:

  • Тип оборудования, который нужен заказчику или который, по его мнению, ему нужен
  • Повышение эффективности — получение большего за то же или меньшее время
  • Экономия трудовых ресурсов — попытка сделать больше с меньшими затратами
  • Оптимальная экономия материалов — максимальное использование полезных элементов получение продукта за дверь, но прибытие в конечный пункт назначения в том же состоянии, в котором он был отправлен
  • Безопасность/эргономика – снижение/устранение травм от повторяющихся движений наряду с общими проблемами безопасности, связанными с автоматизацией
  • Бюджет – сколько они хотят потратить или должны потратить для достижения необходимого результата или рентабельности инвестиций (ROI), чтобы оправдать созданную ценность (обратите внимание, я не назвал цену машины)

В зависимости от того, как вы хотите автоматизировать (термоусадочные системы, упаковка оборудование, упаковщики в стрейч-пленку и машины для запайки/формования коробок) каждую группу машин можно разделить на 2 группы – полуавтоматические и полностью автоматические.

ПОЛУАВТОМАТИЧЕСКИЙ

Как правило, полуавтоматическое оборудование включает в себя оператора, запускающего процесс и заканчивающего процесс. Полностью автоматическая система запускает процесс и завершает его с минимальной помощью оператора. Например, на очень простой полуавтоматической упаковочной машине водитель вилочного погрузчика помещает поддон с продуктом на поворотный стол, прикрепляет конец пленки к поддону и нажимает кнопку, чтобы начать обмотку. После завершения водитель вилочного погрузчика разрезает пленку.Наконец, водитель вилочного погрузчика поднимет поддон и переместит его.

ПОЛНОСТЬЮ АВТОМАТИЧЕСКИЙ

Используя этот аналогичный пример в полностью автоматической системе, поддон с продуктом помещается на роликовый конвейер с приводом, который либо просто выгружает поддон на этот конвейер (например, укладчик на поддоны), либо, чтобы максимизировать пропускную способность, водитель вилочного погрузчика загружает поддон. подающий конвейер с поддоном(ами). Поддоны будут перемещаться по одному в зону обмотки и с помощью датчиков начнут процесс обмотки.После завершения пленка автоматически разрезается, и поддон выгружается на разгрузочный конвейер, ожидая, пока водитель вилочного погрузчика достанет поддон. В этом сценарии у водителя вилочного погрузчика есть время, чтобы получить другие поддоны, вместо того, чтобы ждать процесса упаковки в нашем полуавтоматическом примере.

Кто ты? У PNC есть опыт и знания, которые помогут вам определить, готова ли ваша организация перейти на полуавтоматическое или полностью автоматическое приложение.

Объяснение автоматического перевода и машинного перевода

Нам в Weglot часто задают вопрос, использует ли наше переводческое решение машинный перевод.

Вкратце: Да, Weglot использует машинный перевод .

Однако, несмотря на распространенное мнение, автоматический машинный перевод — это не обязательно плохо. Кроме того, это не единственный тип перевода, который мы поддерживаем в нашем решении.

На самом деле, мы в Weglot считаем, что автоматический машинный перевод пользуется плохой репутацией по многим причинам. В этом посте мы решили обсудить извечную проблему автоматического перевода и машинного перевода, с которой сталкивается большинство людей, стремящихся создать многоязычные веб-сайты.Надеемся, что после прочтения этого сравнения вы сможете выбрать решение для перевода, которое идеально подходит для ваших нужд.

Что такое машинный перевод?

Распространенным заблуждением является то, что автоматический перевод — это то же самое, что и машинный перевод. Однако, по данным Управления по глобализации и локализации (GALA), машинный перевод по определению обеспечивается полностью автоматизированным программным обеспечением , которое может переводить исходный контент на целевые языки. Многие компании, такие как Google, Yandex, Microsoft и DeepL, используют искусственный интеллект и машинное обучение для предоставления высококачественных механизмов перевода для обеспечения машинного перевода. Например, вы можете легко использовать технологию перевода Google Translate для преобразования контента с английского языка на испанский; это машинный перевод.

Что такое автоматический перевод?

Если вы посмотрите на процесс перевода, вы увидите, что он начинается со сбора контента на исходном языке, его перевода, проверки и исправления, оптимизации для SEO и публикации переведенного контента обратно на платформу.

Теперь, как вы можете заметить, в процессе перевода есть много движущихся частей, и фактическая часть перевода — только одна из них. Вот почему машинный перевод является одной из многих функций, которые предлагают решения для автоматического перевода, такие как Weglot.

В Weglot, когда мы говорим об автоматическом переводе, мы имеем в виду гораздо больше, чем просто перевод контента с одного языка на другой. Когда мы говорим об автоматическом переводе, мы охватываем весь опыт, который предоставляет платформа Weglot, включая перевод вашего контента и управление этим контентом, возможности SEO нашего решения и публикацию переведенного content все автоматически на вашем действующем сайте.

Обратите внимание, как решение для управления переводами, такое как Weglot, действует на весь процесс перевода (от начала до конца).

Как работает автоматический перевод с Weglot?

Weglot совместим с всеми CMSess и имеет более 100 языковых вариантов на выбор. Наш процесс автоматического перевода можно разбить на следующие три подпроцесса.

Автоматическое обнаружение и преобразование

После того, как вы интегрировали Weglot, он автоматически обнаруживает ВЕСЬ контент на вашем сайте, включая сообщения, веб-страницы и контент, созданный любыми плагинами, которые вы можете использовать.

Затем, когда вы выбрали исходный или исходный язык своего сайта и целевой язык (языки), Weglot по умолчанию обеспечивает первый уровень машинного перевода. Как? По сути, Weglot использует несколько различных поставщиков услуг перевода, включая DeepL, Microsoft, Yandex и Google Translate (через API). Инструмент перевода, который используется в вашем конкретном случае, зависит от выбранной вами языковой пары, чтобы гарантировать высочайшее качество перевода для вашей конкретной языковой пары.Это часть машинного перевода процесса автоматического перевода на платформе Weglot.

Автоматическая многоязычная поисковая оптимизация

Когда все будет готово, ваши недавно переведенные страницы будут автоматически проиндексированы в соответствии с передовыми методами Google для многоязычного SEO. Это правда, что перевод вашего веб-сайта на несколько языков поможет увеличить ваш трафик и продажи, но ваши клиенты все равно должны иметь возможность находить ваши переведенные страницы в первую очередь через такие каналы, как поисковые системы.

Благодаря переводу не только видимого содержимого вашего веб-сайта, но и таких вещей, как метаданные и теги hreflang, ваши недавно переведенные страницы получают более высокий рейтинг на страницах результатов поисковой системы (SERPS) и, таким образом, помогают потенциальным клиентам найти вас в Интернете.

Автоматическая публикация

Ваши недавно переведенные веб-страницы затем автоматически публикуются на вашем действующем сайте, и посетители вашего сайта получают возможность выбирать между различными языками, которые вы предлагаете, с помощью переключателя языков, который Weglot добавляет на ваш сайт.

Зачем использовать машинный перевод?

Одним из основных недостатков машинного перевода является точность. Люди склонны думать, что переводчики-люди — лучший вариант, когда речь идет об услугах перевода. Хотя машинный перевод еще не обеспечивает 100% точность, он совершенствуется, и реальность такова, что для большинства компаний это может быть отличным выбором по сравнению с ручным переводом.

Во-первых, машинный перевод может сэкономить вам много времени. Конечно, точность создаваемого вами машинного перевода зависит от необходимой вам языковой пары и от того, насколько продвинуты и эффективны ваши инструменты перевода для этой конкретной пары. Но, как примерная оценка, примите, что перевод хорош в 80% случаев. Все, что вам нужно сейчас сделать, это попросить профессионального переводчика просмотреть ваш машинный перевод, проверить и отредактировать его, чтобы он был абсолютно точным.

Если вы — солидная компания, которой нужно перевести тысячи веб-страниц, представьте, сколько времени займет ваша работа по локализации.Получая в таких случаях первый уровень автоматических машинных переводов, вы можете ускорить свою переводческую кампанию и быстро перейти на многоязычие.

Кроме того, с финансовой точки зрения этот выбор может быть очень выгодным. Если вы нанимаете профессионального переводчика, чтобы начать с нуля и работать с большим количеством веб-страниц, счет, который вы получите, будет, мягко говоря, огромным. Принимая во внимание, что если вы начнете с первого уровня машинного перевода, а затем привлечете переводчиков-людей для внесения необходимых корректировок, их рабочая нагрузка и ваш счет будут значительно снижены.

Хорошим компромиссом для таких компаний, как эта, является сочетание автоматического и человеческого перевода. Таким образом, вы можете, например, выбрать проверенные человеком переводы для наиболее важных страниц вашего веб-сайта (например, ваша домашняя страница, страницы оформления заказа и цен, а также ваша юридическая информация) и использовать автоматический перевод для менее важных страниц. Это сэкономит ваше время, деньги и нервы!

Наконец, с точки зрения SEO , машинный перевод также является хорошей страховкой. Допустим, у вас есть тысячи страниц, и вы забыли перевести одну из них. Это может быть проблематично, поскольку Google может наказывать сайты со смешанными языками в рейтинге SERP. Однако, как только вы использовали машинный перевод с Weglot, вам не придется беспокоиться об этом, так как 100% вашего контента будет переведено, а разные языковые версии вашего сайта будут разделены отдельными субдоменами.

Пример

  • Английский → https://myswebsite.com
  • Французский → https://mywebsite.com/fr

На основе вашего машинного перевода

Хотя мы в Weglot активно выступаем за машинный перевод, мы также считаем хорошей практикой либо проверять переводы самостоятельно, либо работать с профессиональными переводчиками, чтобы проверить и гарантировать качество перевода.

Вот почему мы объединились с проверенными профессиональными переводчиками, чтобы вы могли получить к ним доступ, когда вам это нужно. Вы можете заказать профессиональные переводы или проверки прямо с панели инструментов Weglot, и все будет проверено и скорректировано в течение 48-72 часов, что позволит вам сосредоточиться на других частях вашего бизнеса.

Еще одним важным аспектом нашего решения для автоматического перевода является возможность управлять вашими собственными переводами и автоматически обновлять их на вашем активном сайте либо через список переводов Weglot на панели управления, либо непосредственно на вашем активном сайте с помощью нашего интуитивно понятного контекстного редактора.

На панели инструментов Weglot вы также можете сотрудничать с другими членами вашей команды и работать вместе при проверке переводов. Вы даже можете добавить определенные языковые правила, которые будут автоматически применяться ко всему вашему сайту.Например, предположим, что вы переводите с английского на французский и хотите, чтобы ваш сайт имел неформальный тон. Вы можете установить языковое правило, чтобы всегда переводить «Привет» на «Салют», а не на «Добрый день». Вы также можете никогда не переводить определенные слова, например название вашего бренда. Weglot сохранит такую ​​память переводов.

Подводя итог…

Короче говоря, опять же, да, Weglot использует ручной перевод, но это лишь часть того, что мы делаем.Подводя итог, давайте напомним себе следующее: 

Автоматический перевод не равен машинному переводу .

Решение Weglot для автоматического перевода включает в себя многоязычный SEO, перевод содержимого вашего веб-сайта, управление им и его публикацию.

Автоматический перевод является разумным выбором для многих компаний с точки зрения времени и затрат.

С Weglot дополнительные варианты перевода доступны после первого уровня машинного перевода.

На самом деле Weglot делает гораздо больше, чем традиционный «автоматический» перевод, и позволяет организациям ускорить переход к многоязычным веб-сайтам и международному успеху. Когда дело доходит до расширения и выхода на новые глобальные рынки, пусть решение Weglot облегчит ваше путешествие.

Попробуйте 10-дневную бесплатную пробную версию Weglot, чтобы убедиться, насколько простой может быть настройка многоязычного веб-сайта.

Суперавтоматическая машина Nuova Simonelli Talento

Кому следует покупать Nuova Simonelli Talento?

Большие кафе

Nuova Simonelli Talento предлагает крупным кофейням беспрецедентную эффективность с использованием передовых технологий.

Упрощая приготовление эспрессо, как никакая другая машина, Talento сама перемалывает кофе, варит эспрессо и пропаривает молоко.

Процесс настолько прост, что приготовить высококачественные напитки сможет каждый. Совершенно новые бариста могут готовить латте и капучино как профессионалы всего за несколько минут после обучения.

Для больших кафе с высокой текучестью кадров или быстрым темпом работы, требующим максимально быстрого производства, Talento незаменим.

Крупные рестораны

Если в меню есть капучино, персонал ресторана должен знать, как его приготовить.

Но серверам и хостам обычно не хватает опыта бариста. С Talento нет необходимости в длительном обучении.

Поскольку Talento готовит напитки практически без участия пользователя, серверы могут стать более эффективными и обеспечить лучшее обслуживание посетителей.

Сэкономьте драгоценное время ваших сотрудников, которое можно использовать более эффективно для удовлетворения потребностей клиентов, и пусть Talento готовит напитки эспрессо, которые конкурируют с лучшими вариантами кофейни.

Крупные офисы

Ищете идеальную эспрессо-машину для большого корпоративного офиса?

Вам нужна машина самообслуживания, которая не требует абсолютно никаких навыков бариста?

Talento — это решение.Сотрудникам офиса не придется покидать здание каждый раз, когда им нужен кофе-брейк.

Благодаря расширенным режимам самоочистки и обслуживания Talento — это самодостаточная машина, которая необходима предприятиям, чтобы сосредоточиться на том, что важно.

Описание

Talento: элегантный, эффективный, интеллектуальный.

Приготовление готовых напитков эспрессо одним нажатием кнопки. Nuova Simonelli Talento представляет новую волну эспрессо-машин.

Разработанный для максимально эффективного производства в кофейнях, ресторанах, офисах и местах с высокой посещаемостью, Talento может стать именно тем опытным бариста, который нужен вашей команде.

Talento — это высокопроизводительная эспрессо-машина для всех.

Достигая простоты, которую требует быстро меняющаяся среда, Talento не требует никакого опыта бариста для использования. Каждый пользователь может использовать эту машину в полной мере, гарантируя совершенство и постоянство.

Конструкция вкладыша этой модели позволяет разместить ее в ограниченном пространстве, оставляя место для расположенного поблизости охладителя молока, что делает ее наиболее практичным вариантом для любого типа бизнеса.

От прочной конструкции из нержавеющей стали до двух бойлеров из нержавеющей стали, Talento — это надежная машина, рассчитанная на долгий срок службы. Он будет проводить меньше времени в магазине и больше времени готовить отличный кофе для ваших клиентов.

Nuova Simonelli производит машины для чемпионата мира по бариста.

Создатель официальных эспрессо-машин World Barista Championship, Nuova Simonelli славится инновациями и качеством.

Обладая такой же солидной репутацией, как и его машины, Nuova Simonelli является брендом, который выбирают многие предприятия и бариста-чемпионы.

Основные характеристики и их значение

10 программируемых кнопок напитков (всего 20 вариантов напитков)

Nuova Simonelli Talento поставляется с 10 различными кнопками напитков и двумя цифровыми страницами, что дает пользователю в общей сложности 20 вариантов напитков. Все они являются программируемыми, что дает предприятиям невероятное разнообразие и возможность настраивать Talento в соответствии со своими индивидуальными потребностями.

ЖК-дисплей

Благодаря ЖК-дисплею, управление машиной становится невероятно интуитивным, а пользователи могут легко программировать дозировку кофе, дозировку молока, давление утрамбовки, а также температуру заваривания, группировки и пара. Не тратьте время на то, чтобы понять, как работает машина — пусть машина работает на вас.

Двойные шлифовальные машины

С двумя встроенными кофемолками и двумя отдельными бункерами Talento — универсальный магазин. Вы можете заполнить бункеры двумя разными типами кофе: без кофеина и обычного эспрессо или даже специальными смесями и кофе одного происхождения.Ожидайте большего от своей эспрессо-машины.

Автоматическая система приготовления молока на пару

Talento обеспечивает автоматическое пропаривание молока для неизменно превосходной температуры и текстуры. В одной конфигурации молоко пропаривается и добавляется в напитки на молочной основе самостоятельно. Второй Talento предлагает ручное управление, что может быть предпочтительнее для бариста, предпочитающего более традиционный подход. (См. конфигурации ниже.)

Варочная группа с термокомпенсацией

Изготовленная из алюминия и термокомпенсированной стали варочная группа обеспечивает превосходное качество и температурную стабильность для заваривания.Это обеспечивает стабильность от эспрессо к эспрессо.

Инфузионная камера с энкодером

Положение заварочной камеры контролируется энкодером, что гарантирует ее идеальное положение и гарантирует сухость кофейной гущи.

Система двойной трамбовки

Встроенный темпер обеспечивает необходимое давление в соответствии с запрограммированной программой и позволяет бариста приготовить из одной и той же смеси разные сорта кофе в соответствии с предпочтениями. Эта точность и гибкость идеальны для профессиональных результатов.

Гибкий носик

Для предприятий, предлагающих различные объемы напитков, гибкий носик Talento просто незаменим. Бариста могут приготовить напитки любого размера, поднимая и опуская носик в соответствии с размерами чашек.

Автоматическая программа стирки

В конце рабочего дня нужно многое сделать. Позвольте автоматической программе стирки выполнить очистку машины за вас и позволить вам направить свою энергию туда, где это необходимо.

Настройка времени автоматического включения/выключения и функция ожидания

Автоматическая настройка времени включения и выключения вместе с функцией ожидания экономит энергию и планету.

Программа самодиагностики

Talento оснащен программой самодиагностики, которая сообщит вам, если что-то пошло не так, что уменьшит количество проблем с техническим обслуживанием и продлит срок службы вашей машины.

Конфигурации

1 шаг Talento

1 Step Nuova Simonelli Talento — это конфигурация для тех, кому нужна автономная эспрессо-машина.

Эта модель умеет все: молотит кофе, утрамбовывает его, варит эспрессо, пропаривает молоко и готовит напиток.

Все это происходит, когда пользователь нажимает кнопку напитка. Никаких лишних шагов, никаких скрытых процедур.

*Для 1 Step Talento требуется охладитель молока. Пожалуйста, добавьте охладитель молока в раздел надстроек выше, если вы хотите, чтобы он поставлялся с вашей покупкой.

2 шага Talento  

Предоставляя пользователю больше контроля, 2 Step Talento обеспечивает функцию ручного приготовления молока только с использованием встроенной функции Auto-Steam.

Вместо автоматического пропаривания молока в этой конфигурации пользователь должен добавить молоко в паровой кувшин.Тем не менее, Auto-Steam берет это оттуда.

2 Step Talento создает гибридный процесс ручного и автоматического пропаривания молока, который каждый раз обеспечивает красивую молочную пену, в то же время позволяя пользователю создавать красивые латте-арт.

Специальное предложение по гарантии

Стандарт

Платина

-2 года гарантии на детали


— Без трудовой гарантии

— Единая точка контакта для всех потребностей в обслуживании

— Прием и осмотр машины на наличие повреждений

— Стендовая испытательная машина

— Координация установки оборудования

— Проверка качества/прозрачности воды — Профессиональная установка*

— Обучение обслуживанию оборудования — Круглосуточный ответ в рабочий день

— Автоматическая обработка претензий по гарантии

— Бесплатная установка системы умягчения воды

— Гарантия отсутствия повреждений при транспортировке

— Пожизненная гарантия на медные котлы

— 1 год гарантии на работу

— 10004 Неприятный звонок

-1 Профилактическое техническое обслуживание для традиционных моделей — Включенные детали

-3 Профилактическое техническое обслуживание для Supers — Включенные детали

* Дополнительные сборы: если у Nuova Distribution USA нет специалиста по обслуживанию в пределах 3 часов езды от места установки, взимается дополнительная плата за проезд.

Плата за сверхурочную работу: Установка должна производиться в обычные рабочие часы (с понедельника по пятницу, с 8:00 до 17:00).

За установку в нерабочее время взимается дополнительная плата


Информация о воде

Установка умягчителя воды обязательна для всех пользователей, которые не соответствуют требуемым спецификациям воды, невыполнение этого требования приведет к аннулированию гарантии.

Рекомендуется всегда добавлять в заказ фильтр для воды, если у вас его еще нет.Время замены фильтров зависит от воды и количества приготавливаемых напитков (см. расчетный калькулятор).

Просмотр калькулятора воды

Технические характеристики

Высота машины 34 дюйма
Глубина машины 25 дюймов
Ширина машины 16 дюймов
Вес машины 215 фунтов.
Вольт 220 В
Вт 5400
Потребляемый ток 25
Потребляемая мощность Нема Л6-30Т

Общие вопросы и ответы

Q: Должен ли я получить 1 Step или 2 Step Talento?

A: Обе конфигурации Talento — это первоклассные эспрессо-машины, с которыми трудно конкурировать в плане удобства и эффективности.

Чтобы облегчить выбор между ними, примите во внимание следующие факторы:

  • Насколько компетентен ваш персонал
  • Насколько быстро вам нужно производить напитки

Если ваши сотрудники никогда раньше не работали на эспрессо-машине, их обучение работе с 1 Step Talento, скорее всего, займет всего несколько минут. На 2 Step Talento может потребоваться немного больше времени — до одного полного периода обучения.

Учитывая, что все другие эспрессо-машины требуют недель (а возможно, даже месяцев) практики, любая из них Talento может сэкономить время и деньги компании на обучении.

Однако для некоторых предприятий, включая предприятия общественного питания с меняющимся персоналом, рестораны и офисы, 1 Step Talento может оказаться более практичным.

Для многих элитных кофеен, предлагающих латте-арт, больше подойдет 2 Step Talento.

Когда дело доходит до скорости, 1 Step обеспечивает наибольшую эффективность, если вам нужно, чтобы ваши сотрудники выполняли несколько задач одновременно.

1 Step Talento автоматизирует весь процесс приготовления напитков, а это означает, что сотрудники могут нажать кнопку, уйти и заняться другими нуждами клиентов и приготовлениями, пока напиток не будет готов.

В: В чем разница между суперавтоматической эспрессо-кофемашиной, такой как Talento, и автоматической моделью?

A: Суперавтоматическая машина, такая как Talento, представляет собой эволюцию автоматизации в эспрессо-машинах.

В то время как автомат обеспечивает некоторую автоматизацию приготовления эспрессо, Talento может буквально приготовить эспрессо для вас от начала до конца.

Автоматические модели не обязательно поставляются со встроенными кофемолками.У Talento есть — два шлифовальных станка.

Даже самые совершенные автоматические эспрессо-кофемашины с самыми автоматизированными функциями не будут сами готовить напитки, как 1 Step Talento.

Q: Как работает Talento?

A: Готов научиться пользоваться Talento?

Сначала мы рассмотрим 1 Step Talento и разобьем его на несколько шагов для подробного обзора.

Допустим, вы хотите приготовить капучино:

  • Шаг 1 — Поместите чашку с латте под диспенсер.
  • Шаг 2 — Нажмите кнопку «капучино» на панели управления.
  • Шаг 3 — Подождите, пока Talento приготовит капучино.

Вот и все.

Приготовление капучино на 2-шаговой кофемашине Talento включает в себя этап наливания молока, поскольку он разделяет два основных этапа: заваривание и приготовление на пару.

Одна машина полностью автоматизирована, а другая обеспечивает ручное управление пропариванием молока.

Дополнительные ресурсы

Автоматическое машинное обучение — h3O 3.36.0.4 документация

В последние годы спрос на специалистов по машинному обучению превышает предложение, несмотря на приток людей, выходящих на поле. Чтобы восполнить этот пробел, были достигнуты большие успехи в разработке удобного программного обеспечения для машинного обучения, которое могут использовать неспециалисты. Первые шаги к упрощению машинного обучения включали разработку простых унифицированных интерфейсов для различных алгоритмов машинного обучения (например, h3O).

Несмотря на то, что h3O упростил эксперименты с машинным обучением для неспециалистов, для создания высокопроизводительных моделей машинного обучения по-прежнему требуются достаточные знания и опыт в области науки о данных.В частности, глубокие нейронные сети, как известно, трудно настроить должным образом неспециалисту. Чтобы программное обеспечение для машинного обучения действительно было доступно для неспециалистов, мы разработали простой в использовании интерфейс, который автоматизирует процесс обучения большого количества моделей-кандидатов. AutoML h3O также может быть полезным инструментом для опытных пользователей, предоставляя простую функцию-оболочку, которая выполняет большое количество задач, связанных с моделированием, которые обычно требуют много строк кода, и освобождая их время, чтобы сосредоточиться на других аспектах. задачи конвейера науки о данных, такие как предварительная обработка данных, разработка функций и развертывание моделей.

AutoML

h3O можно использовать для автоматизации рабочего процесса машинного обучения, который включает в себя автоматическое обучение и настройку многих моделей в течение заданного пользователем срока.

h3O предлагает ряд методов объяснимости модели, которые применяются к объектам AutoML (группам моделей), а также к отдельным моделям (например, модель лидера). Пояснения могут создаваться автоматически с помощью одного вызова функции, предоставляя простой интерфейс для изучения и объяснения моделей AutoML.

Интерфейс AutoML

Интерфейс h3O AutoML спроектирован так, чтобы иметь как можно меньше параметров, поэтому все, что нужно сделать пользователю, — это указать на свой набор данных, определить столбец ответа и, при необходимости, указать ограничение по времени или ограничение на общее количество обученных моделей.

И в R, и в API Python AutoML использует те же аргументы, связанные с данными, x , y , training_frame , validation_frame , что и другие алгоритмы h3O. В большинстве случаев все, что вам нужно сделать, это указать аргументы данных. Затем вы можете настроить значения для max_runtime_secs и/или max_models , чтобы установить явные ограничения времени или количества моделей для вашего запуска.

Обязательные параметры

Требуемые параметры данных
  • y: Этот аргумент является именем (или индексом) столбца ответа.

  • training_frame: указывает тренировочный набор.

Требуемые параметры остановки

Должна быть указана одна из следующих стратегий остановки (на основе времени или количества моделей). Если установлены оба параметра, запуск AutoML остановится, как только будет достигнуто одно из этих ограничений.

  • max_runtime_secs: этот аргумент указывает максимальное время, в течение которого будет выполняться процесс AutoML. По умолчанию 0 (без ограничений), но динамически устанавливается на 1 час, если пользователь не указал ни один из max_runtime_secs и max_models .

  • max_models: укажите максимальное количество моделей для построения при запуске AutoML, за исключением моделей Stacked Ensemble. По умолчанию NULL/None .

Дополнительные параметры

Дополнительные параметры данных
  • x: список/вектор имен или индексов столбцов-предикторов. Этот аргумент необходимо указывать только в том случае, если пользователь хочет исключить столбцы из набора предикторов. Если все столбцы (кроме ответа) должны использоваться в прогнозировании, то это не нужно устанавливать.

  • validation_frame: этот аргумент игнорируется, если только nfolds == 0 , в котором можно указать кадр проверки и использовать его для ранней остановки отдельных моделей и ранней остановки поиска сетки (если только max_models или max_runtime_secs не переопределяет метрику на основе ранней остановки). По умолчанию и когда nfolds > 1 , для ранней остановки будут использоваться метрики перекрестной проверки, поэтому validation_frame будет игнорироваться.

  • Leaderboard_frame : Этот аргумент позволяет пользователю указать конкретный фрейм данных, который будет использоваться для оценки и ранжирования моделей в таблице лидеров. Эта рамка не будет использоваться ни для чего, кроме подсчета очков в таблице лидеров. Если кадр таблицы лидеров не указан пользователем, то в таблице лидеров вместо этого будут использоваться метрики перекрестной проверки, или если перекрестная проверка отключена путем установки nfolds = 0 , то кадр таблицы лидеров будет сгенерирован автоматически из тренировочного кадра. .

  • blending_frame: указывает кадр, который будет использоваться для вычисления прогнозов, которые служат в качестве обучающего кадра для metalearner моделей Stacked Ensemble. Если предоставлено, все сложенные ансамбли, созданные AutoML, будут обучаться с использованием смешивания (также известного как удержание стекирования) вместо метода стекирования по умолчанию на основе перекрестной проверки.

  • fold_column: Указывает столбец с перекрестной проверкой присвоения индекса кратности для каждого наблюдения. Это используется для переопределения схемы рандомизированной 5-кратной перекрестной проверки по умолчанию для отдельных моделей в прогоне AutoML.

  • weights_column: Указывает столбец с весами наблюдений. Присвоение некоторому наблюдению нулевого веса эквивалентно исключению его из набора данных; присвоение наблюдению относительного веса 2 эквивалентно повторению этой строки дважды. Отрицательные веса не допускаются.

Дополнительные различные параметры
  • nfolds: укажите значение >= 2 для количества сгибов для k-кратной перекрестной проверки моделей в прогоне AutoML или укажите «-1», чтобы позволить AutoML выбирать между k-кратной перекрестной проверкой или режимом наложения. должен быть использован.Режим наложения будет использовать часть training_frame (если не указан blending_frame ) для обучения составных ансамблей. Используйте 0, чтобы отключить перекрестную проверку; это также отключит Stacked Ensembles (что снизит общую лучшую производительность модели). Это значение по умолчанию равно «-1».

  • balance_classes: Укажите, следует ли выполнять передискретизацию миноритарных классов, чтобы сбалансировать распределение классов. Этот параметр не включен по умолчанию и может увеличить размер фрейма данных.Этот вариант применим только для классификации. Если размер передискретизированного набора данных превышает максимальный размер, рассчитанный с использованием параметра max_after_balance_size , то большинство классов будут подвергнуты недостаточной выборке, чтобы удовлетворить ограничение размера.

  • class_sampling_factors: укажите коэффициенты избыточной/недостаточной выборки для каждого класса (в лексикографическом порядке). По умолчанию эти соотношения автоматически рассчитываются во время обучения для получения баланса классов. Обратите внимание, что для этого требуется, чтобы balance_classes было установлено в True.

  • max_after_balance_size: укажите максимальный относительный размер обучающих данных после подсчета классов балансировки (должно быть включено balance_classes ). По умолчанию 5.0. (Значение может быть меньше 1,0).

  • max_runtime_secs_per_model: укажите максимальное время, отводимое на обучение каждой отдельной модели при выполнении AutoML. По умолчанию 0 (отключено). Обратите внимание, что установка этого параметра может повлиять на воспроизводимость AutoML.

  • stop_metric: Укажите метрику, которая будет использоваться для ранней остановки.По умолчанию АВТО . Доступные варианты:

    • AUTO : по умолчанию используется значение logloss для классификации и отклонение для регрессии.

    • отклонение (среднее остаточное отклонение)

    • логлосс

    • МСЭ

    • СКО

    • МАЕ

    • СКО

    • AUC (площадь под ROC-кривой)

    • AUCPR (область под кривой Precision-Recall)

    • lift_top_group

    • неправильная классификация

    • mean_per_class_error

  • stop_tolerance: этот параметр указывает относительный допуск для критерия остановки на основе метрик, чтобы остановить поиск в сетке и обучение отдельных моделей в рамках запуска AutoML.Это значение по умолчанию равно 0,001, если набор данных содержит не менее 1 миллиона строк; в противном случае по умолчанию используется большее значение, определяемое размером набора данных и скоростью, отличной от NA. В этом случае значение вычисляется как 1/sqrt(nrows * non-NA-rate).

  • stop_rounds: этот аргумент используется для остановки обучения модели, когда показатель остановки (например, AUC) не улучшается для указанного количества раундов обучения на основе простого скользящего среднего. В контексте AutoML это контролирует раннюю остановку как в случайном поиске по сетке, так и в отдельных моделях.По умолчанию 3 и должно быть неотрицательным целым числом. Чтобы полностью отключить раннюю остановку, установите для этого параметра значение 0,

  • .
  • sort_metric: указывает показатель, используемый для сортировки таблицы лидеров в конце запуска AutoML. Доступные опции включают:

    • AUTO : по умолчанию используется AUC для бинарной классификации, mean_per_class_error для полиномиальной классификации и отклонение для регрессии.

    • отклонение (среднее остаточное отклонение)

    • логлосс

    • МСЭ

    • СКО

    • МАЕ

    • СКО

    • AUC (площадь под ROC-кривой)

    • AUCPR (область под кривой Precision-Recall)

    • mean_per_class_error

  • семя: целое число.Установите семя для воспроизводимости. AutoML может гарантировать воспроизводимость только при определенных условиях. Модели глубокого обучения h3O не воспроизводятся по умолчанию из соображений производительности, поэтому, если пользователю требуется воспроизводимость, то exclude_algos должен содержать «Глубокое обучение» . Кроме того, необходимо использовать max_models , поскольку max_runtime_secs ограничены в ресурсах, а это означает, что если доступные вычислительные ресурсы не совпадают между запусками, AutoML может обучать больше моделей при одном запуске по сравнению с другим.По умолчанию NULL/None .

  • имя_проекта : Строка символов для идентификации проекта AutoML. По умолчанию NULL/None , что означает, что имя проекта будет сгенерировано автоматически на основе идентификатора обучающего кадра. Дополнительные модели можно обучить и добавить в существующий проект AutoML, указав одно и то же имя проекта в нескольких вызовах функции AutoML (при условии, что в последующих запусках используется один и тот же обучающий кадр).

  • exclude_algos: список/вектор строк символов, обозначающих алгоритмы, которые следует пропустить на этапе построения модели.Пример использования: exclude_algos = ["GLM", "DeepLearning", "DRF"] в Python или exclude_algos = c("GLM", "DeepLearning", "DRF") в R. По умолчанию None/ NULL , что означает, что будут использоваться все подходящие алгоритмы h3O, если позволяют критерии остановки поиска и если не указана опция include_algos . Эта опция является взаимоисключающей с include_algos . См. include_algos ниже для списка доступных опций.

  • include_algos: список/вектор строк символов, обозначающих алгоритмы, которые необходимо включить на этапе построения модели. Пример использования: include_algos = ["GLM", "DeepLearning", "DRF"] в Python или include_algos = c("GLM", "DeepLearning", "DRF") в R. По умолчанию None/ NULL , что означает, что все подходящие алгоритмы h3O будут использоваться, если позволяют критерии остановки поиска и если в exclude_algos не указаны никакие алгоритмы.Эта опция является взаимоисключающей с exclude_algos . Доступные алгоритмы:

    • DRF (Включает модели распределенного случайного леса (DRF) и чрезвычайно рандомизированных деревьев (XRT). Дополнительную информацию см. в разделе «Чрезвычайно рандомизированные деревья» в главе DRF и в описании параметра histogram_type.)

    • GLM (обобщенная линейная модель с регуляризацией)

    • XGBoost (XGBoost ГБМ)

    • ГБМ (ч3О ГБМ)

    • DeepLearning (полностью связанная многослойная искусственная нейронная сеть)

    • StackedEnsemble (Stacked Ensemble, включает ансамбль всех базовых моделей и ансамбли, использующие подмножества базовых моделей)

  • моделирования_план : список шагов моделирования, которые будут использоваться механизмом AutoML.(Не все они могут быть выполнены в зависимости от других ограничений.)

  • предварительная обработка : Список шагов предварительной обработки, которые необходимо выполнить. В настоящее время поддерживается только ["target_encoding"] . Подробнее об автоматическом применении целевого кодирования см. здесь. Экспериментальный.

  • Experimentation_ratio : Укажите бюджетное соотношение (от 0 до 1), предназначенное для этапа эксплуатации (по сравнению с разведкой). По умолчанию фаза эксплуатации отключена (exploitation_ratio=0), поскольку она все еще является экспериментальной; чтобы активировать его, рекомендуется попробовать соотношение около 0.1. Обратите внимание, что текущая фаза эксплуатации только пытается настроить лучший XGBoost и лучший GBM, найденный во время исследования. Экспериментальный.

  • monotone_constraints: сопоставление, представляющее монотонные ограничения. Используйте +1, чтобы применить возрастающее ограничение, и -1, чтобы задать убывающее ограничение.

  • keep_cross_validation_predictions: укажите, следует ли сохранять прогнозы перекрестной проверки. Для этого необходимо установить значение TRUE, если один и тот же объект AutoML запускается для повторных запусков, поскольку прогнозы CV необходимы для построения дополнительных моделей Stacked Ensemble в AutoML.Эта опция по умолчанию имеет значение ЛОЖЬ.

  • keep_cross_validation_models: Укажите, следует ли сохранять модели с перекрестной проверкой. Сохранение моделей перекрестной проверки может потреблять значительно больше памяти в кластере h3O. Эта опция по умолчанию имеет значение ЛОЖЬ.

  • keep_cross_validation_fold_assignment: включите этот параметр, чтобы сохранить назначение сгиба перекрестной проверки. По умолчанию ЛОЖЬ.

  • verbosity : (Необязательно: только для Python и R) Подробность внутренних сообщений, распечатываемых во время обучения.Должен быть одним из "отладка", "информация", "предупреждение" . По умолчанию NULL/None (ведение журнала клиента отключено).

  • export_checkpoints_dir: укажите каталог, в который будут автоматически экспортироваться сгенерированные модели.

Примечания

Опции проверки

Если пользователь отключит перекрестную проверку, установив nfolds == 0 , то показатели перекрестной проверки будут недоступны для заполнения таблицы лидеров. В этом случае нам нужно убедиться, что существует защитный кадр (т.е. «рамка таблицы лидеров») для оценки моделей, чтобы мы могли генерировать показатели производительности моделей для таблицы лидеров. Без перекрестной проверки нам также потребуется использовать кадр проверки для ранней остановки моделей. Поэтому, если какой-либо из этих кадров не предоставлен пользователем, они будут автоматически отделены от обучающих данных. Если какой-либо кадр отсутствует, 10% обучающих данных будут использованы для создания отсутствующего кадра (если оба отсутствуют, то в общей сложности 20% обучающих данных будут использованы для создания 10% проверки и 10% кадра списка лидеров) .

Требования к памяти XGBoost

XGBoost, включенный в h3O в качестве сторонней библиотеки, требует собственной памяти за пределами кластера h3O (Java). При запуске AutoML с XGBoost (он включен по умолчанию) убедитесь, что вы разрешаете h3O не более 2/3 от общего объема доступной оперативной памяти. Пример: если у вас 60 ГБ ОЗУ, используйте h3o.init(max_mem_size = "40G") , оставив 20 ГБ для XGBoost.

Scikit-Learn Совместимость

h3OAutoML может взаимодействовать с h3o.Модуль sklearn . Модуль H3O.Sklearn выставляет 2 обертки для H3oautoml ( H3oautomlclassifier и H3oautomlregressor ), который подвергают стандартную API, знакомый Sklearn пользователей: Fit , прогноз , FIT_PREDICT , , get_params и set_params . Он принимает различные форматы в качестве входных данных (h3OFrame, массив numpy , pandas Dataframe), что позволяет их комбинировать с чистыми компонентами sklearn в конвейерах.Нажмите здесь, чтобы посмотреть пример использования h3OAutoML с модулем h3o.sklearn .

Объяснимость

Объекты AutoML полностью поддерживаются через интерфейс объяснимости модели h3O. Большое количество графиков сравнения нескольких моделей и одиночных моделей (лидер AutoML) можно создать автоматически с помощью одного вызова h3o.explain() . Мы приглашаем вас узнать больше на странице, указанной выше.

Примеры кодов

Обучение

Вот пример, показывающий базовое использование h3o.automl() в R и класс h3OAutoML в Python . Исключительно в демонстрационных целях мы явно указываем аргумент x , хотя в этом наборе данных это не требуется. В этом наборе данных набор предикторов — это все столбцы, кроме ответа. Как и в других алгоритмах h3O, значение по умолчанию x — это «все столбцы, кроме y », так что это даст тот же результат.

 библиотека (h3o)

# Запускаем кластер h3O (локально)
h3o.в этом()

# Импортируем образец поезда/теста бинарного результата в h3O
поезд <- h3o.importFile("https://s3.amazonaws.com/erin-data/higgs/higgs_train_10k.csv")
тест <- h3o.importFile("https://s3.amazonaws.com/erin-data/higgs/higgs_test_5k.csv")

# Определить предикторы и ответ
у <- "ответ"
x <- setdiff (имена (поезд), y)

# Для бинарной классификации ответ должен быть фактором
поезд [, у] <- as.factor (поезд [, у])
тест [, у] <- as.factor (тест [, у])

# Запустить AutoML для 20 базовых моделей
амл <- h3o.автомл(х = х, у = у,
                  training_frame = поезд,
                  макс_модели = 20,
                  семя = 1)

# Просмотр таблицы лидеров AutoML
фунт <- [email protected]
print(lb, n = nrow(lb)) # Печатать все строки вместо стандартных (6 строк)

# model_id auc logloss mean_per_class_error rmse mse
# 1 StackedEnsemble_AllModels_AutoML_20181210_150447 0,7895453 0,5516022 0,3250365 0,4323464 0,1869234
# 2 StackedEnsemble_BestOfFamily_AutoML_20181210_150447 0.7882530 0,5526024 0,3239841 0,4328491 0,1873584
# 3 XGBoost_1_AutoML_20181210_150447 0,7846510 0,5575305 0,3254707 0,4349489 0,18
# 4 XGBoost_grid_1_AutoML_20181210_150447_model_4 0,7835232 0,5578542 0,3188188 0,4352486 0,1894413
# 5 XGBoost_grid_1_AutoML_20181210_150447_model_3 0,7830043 0,5596125 0,3250808 0,4357077 0,1898412
# 6 XGBoost_2_AutoML_20181210_150447 0,7813603 0,5588797 0.3470738 0,4359074 0,1

3 # 7 XGBoost_3_AutoML_20181210_150447 0,7808475 0,5595886 0,3307386 0,4361295 0,1

0 # 8 GBM_5_AutoML_20181210_150447 0,7808366 0,5599029 0,3408479 0,4361915 0,1

0 # 9 GBM_2_AutoML_20181210_150447 0,7800361 0,5598060 0,3399258 0,4364149 0,10 # 10 GBM_1_AutoML_20181210_150447 0,7798274 0,5608570 0,3350957 0,4366159 0,1

5 # 11 GBM_3_AutoML_20181210_150447 0.7786685 0,5617903 0,3255378 0,4371886 0,19 # 12 XGBoost_grid_1_AutoML_20181210_150447_model_2 0,7744105 0,5750165 0,3228112 0,4427003 0,1959836 # 13 GBM_4_AutoML_20181210_150447 0,7714260 0,5697120 0,3374203 0,4410703 0,1945430 # 14 GBM_grid_1_AutoML_20181210_150447_model_1 0,7697524 0,5725826 0,3443314 0,4424524 0,1957641 # 15 GBM_grid_1_AutoML_20181210_150447_model_2 0,7543664 0,

73 0.3558550 0,4966377 0,2466490 # 16 DRF_1_AutoML_20181210_150447 0,7428924 0,5958832 0,3554027 0,4527742 0,2050045 # 17 XRT_1_AutoML_20181210_150447 0,7420910 0,5993457 0,3565826 0,4531168 0,2053148 # 18 DeepLearning_grid_1_AutoML_20181210_150447_model_2 0,7388505 0,6012286 0,3695292 0,4555318 0,2075092 # 19 XGBoost_grid_1_AutoML_20181210_150447_model_1 0,7257836 0,6013126 0,3820490 0,4565541 0,2084417 # 20 DeepLearning_1_AutoML_20181210_150447 0.6979292 0,6339217 0,3979403 0,4692373 0,2201836 # 21 DeepLearning_grid_1_AutoML_20181210_150447_model_1 0,6847773 0,6694364 0,4081802 0,4799664 0,2303678 # 22 GLM_grid_1_AutoML_20181210_150447_model_1 0,6826481 0,6385205 0,3972341 0,4726827 0,2234290 # # [22 строки x 6 столбцов] # Здесь хранится модель лидера амл@лидер

 импорт воды
из h3o.automl импортировать h3OAutoML

# Запускаем кластер h3O (локально)
h3o.init()

# Импортируем образец поезда/теста бинарного результата в h3O
поезд = h3o.import_file("https://s3.amazonaws.com/erin-data/higgs/higgs_train_10k.csv")
test = h3o.import_file("https://s3.amazonaws.com/erin-data/higgs/higgs_test_5k.csv")

# Определить предикторы и ответ
х = поезд. столбцы
у = "ответ"
х.удалить(у)

# Для бинарной классификации ответ должен быть фактором
поезд[у] = поезд[у].asfactor()
тест[у] = тест[у].asfactor()

# Запустить AutoML для 20 базовых моделей
aml = h3OAutoML (max_models = 20, семя = 1)
aml.train(x=x, y=y, training_frame=train)

# Просмотр таблицы лидеров AutoML
фунт = амл.таблица лидеров
lb.head(rows=lb.nrows) # Печатать все строки вместо стандартных (10 строк)

# model_id auc logloss mean_per_class_error rmse mse
# -------------------------------------------------- -- -------- --------- ------- -------- - -------
# StackedEnsemble_AllModels_AutoML_20181212_105540 0,789801 0,551109 0,333174 0,43211 0,186719
# StackedEnsemble_BestOfFamily_AutoML_20181212_105540 0,788425 0.552145 0,323192 0,432625 0,187165
# XGBoost_1_AutoML_20181212_105540 0,784651 0,55753 0,325471 0,434949 0,189181
# XGBoost_grid_1_AutoML_20181212_105540_model_4 0,783523 0,557854 0,318819 0,435249 0,189441
# XGBoost_grid_1_AutoML_20181212_105540_model_3 0,783004 0,559613 0,325081 0,435708 0,189841
# XGBoost_2_AutoML_20181212_105540 0,78136 0,55888 0,347074 0.435907 0,1

# XGBoost_3_AutoML_20181212_105540 0,780847 0,559589 0,330739 0,43613 0,1

# GBM_5_AutoML_20181212_105540 0,780837 0,559903 0,340848 0,436191 0,1

# GBM_2_AutoML_20181212_105540 0,780036 0,559806 0,339926 0,436415 0,1 # GBM_1_AutoML_20181212_105540 0,779827 0,560857 0,335096 0,436616 0,1

# GBM_3_AutoML_20181212_105540 0.778669 0,56179 0,325538 0,437189 0,1
# XGBoost_grid_1_AutoML_20181212_105540_model_2 0,774411 0,575017 0,322811 0,4427 0,195984 # GBM_4_AutoML_20181212_105540 0,771426 0,569712 0,33742 0,44107 0,194543 # GBM_grid_1_AutoML_20181212_105540_model_1 0,769752 0,572583 0,344331 0,442452 0,195764 # GBM_grid_1_AutoML_20181212_105540_model_2 0,754366 0,

7 0.355855 0,496638 0,246649 # DRF_1_AutoML_20181212_105540 0,742892 0,595883 0,355403 0,452774 0,205004 # XRT_1_AutoML_20181212_105540 0,742091 0,599346 0,356583 0,453117 0,205315 # DeepLearning_grid_1_AutoML_20181212_105540_model_2 0,741795 0,601497 0,368291 0,454904 0,206937 # XGBoost_grid_1_AutoML_20181212_105540_model_1 0,693554 0,620702 0,40588 0,465791 0,216961 # DeepLearning_1_AutoML_20181212_105540 0.69137 0,637954 0,409351 0,47178 0,222576 # DeepLearning_grid_1_AutoML_20181212_105540_model_1 0,6

0,661794 0,418469 0,476635 0,227181 # GLM_grid_1_AutoML_20181212_105540_model_1 0,682648 0,63852 0,397234 0,472683 0,223429 # # [22 строки x 6 столбцов] # Здесь хранится модель лидера амл.лидер

Приведенный выше код — это самый быстрый способ начать работу, и этот пример будет упоминаться в следующих разделах.Чтобы узнать больше о h3O AutoML, мы рекомендуем ознакомиться с нашим более подробным руководством по AutoML (доступно в R и Python).

Предсказание

Использование функции predict() с AutoML создает прогнозы для модели лидера из выполнения. Порядок строк в результатах совпадает с порядком загрузки данных, даже если некоторые строки завершаются ошибкой (например, из-за отсутствующих значений или невидимых уровней факторов).

Используя предыдущий пример кода, вы можете генерировать прогнозы набора тестов следующим образом:

 # Чтобы генерировать прогнозы на тестовом наборе, вы можете делать прогнозы
# непосредственно на объекте `h3OAutoML` или на модели-лидере
# объект напрямую
пред <- h3o.предсказать(амл, тест) # предсказать(амл, тест) также работает

# или:
pred <- h3o.predict([email protected], test)
 
 # Чтобы генерировать прогнозы на тестовом наборе, вы можете делать прогнозы
# непосредственно на объекте `h3OAutoML` или на модели-лидере
# объект напрямую
preds = aml.predict(тест)

# или:
preds = aml.leader.predict (тест)
 

Вывод AutoML

Таблица лидеров

Объект AutoML включает «таблицу лидеров» моделей, обученных в процессе, включая 5-кратную перекрестную проверку производительности модели (по умолчанию).Количество кратностей, используемых в процессе оценки модели, можно настроить с помощью параметра nfolds . Если вы хотите оценить модели в определенном наборе данных, вы можете указать аргумент Leaderboard_frame в запуске AutoML, и тогда в таблице лидеров вместо этого будут отображаться баллы для этого набора данных.

Модели ранжируются по метрике по умолчанию в зависимости от типа проблемы (вторая колонка таблицы лидеров). В задачах бинарной классификации такой метрикой является AUC, а в задачах мультиклассовой классификации метрикой является средняя ошибка для каждого класса.В задачах регрессии метрикой сортировки по умолчанию является отклонение. Для удобства также предусмотрены некоторые дополнительные метрики.

Чтобы помочь пользователям оценить сложность моделей AutoML , функция h3o.get_leaderboard была расширена за счет включения параметра extra_columns . Этот параметр позволяет вам указать, какие необязательные столбцы (если они есть) должны быть добавлены в таблицу лидеров. По умолчанию это значение Нет. Допустимые параметры включают:

  • training_time_ms : Столбец, указывающий время обучения каждой модели в миллисекундах.(Обратите внимание, что сюда не входит обучение моделей перекрестной проверки.)

  • predict_time_per_row_ms : Столбец, в котором указано среднее время прогнозирования по модели для одной строки.

  • ВСЕ : Добавляет столбцы как для training_time_ms, так и для predict_time_per_row_ms.

Используя предыдущий пример, вы можете получить таблицу лидеров следующим образом:

 # Получить таблицу лидеров со всеми возможными колонками
фунт <- h3o.get_leaderboard (object = aml, extra_columns = "ВСЕ")
фунт
 
 # Получить таблицу лидеров со всеми возможными колонками
lb = h3o.automl.get_leaderboard(aml, extra_columns = "ВСЕ")
фунт
 

Вот пример таблицы лидеров (со всеми столбцами) для задачи бинарной классификации. Щелкните изображение, чтобы увеличить его.

Изучите модели

Чтобы более внимательно изучить обученные модели, вы можете взаимодействовать с моделями либо по идентификатору модели, либо с помощью удобной функции, которая может выбрать лучшую модель каждого типа модели (ранжированную по метрике по умолчанию или метрике по вашему выбору).

Получить лучшую модель или лучшую модель определенного типа:

 # Получите лучшую модель, используя метрику
m <- [email protected]лидер
# это эквивалентно
m <- h3o.get_best_model(aml)

# Получите лучшую модель, используя метрику не по умолчанию
m <- h3o.get_best_model(aml, критерий = "logloss")

# Получите лучшую модель XGBoost, используя метрику сортировки по умолчанию
xgb <- h3o.get_best_model(aml, алгоритм = "xgboost")

# Получите лучшую модель XGBoost, ранжированную по logloss
xgb <- h3o.get_best_model(aml, алгоритм = "xgboost", критерий = "logloss")
 
 # Получите лучшую модель, используя метрику
м = амл.лидер
# это эквивалентно
м = aml.get_best_model()

# Получите лучшую модель, используя метрику не по умолчанию
m = aml.get_best_model(criterion="logloss")

# Получите лучшую модель XGBoost, используя метрику сортировки по умолчанию
xgb = aml.get_best_model (алгоритм = "xgboost")

# Получите лучшую модель XGBoost, ранжированную по logloss
xgb = aml.get_best_model(algorithm="xgboost", критерий="logloss")
 

Получить конкретную модель по идентификатору модели:

 # Получить конкретную модель по идентификатору модели
m <- h3o.getModel("StackedEnsemble_BestOfFamily_AutoML_201_174603")
 
 # Получить конкретную модель по идентификатору модели
м = h3o.get_model("StackedEnsemble_BestOfFamily_AutoML_201_174603")
 

После того, как вы получили модель в R или Python, вы можете проверить параметры модели следующим образом:

 # Просмотр значений параметров не по умолчанию для модели XGBoost выше
[email protected]параметры
 
 # Просмотр параметров выбранной выше модели XGBoost
xgb.params.keys()

# Проверить значения отдельных параметров
xgb.params['ntrees']
 

Журнал AutoML

При использовании клиентов Python или R вы также можете получить доступ к метаинформации со следующими свойствами объекта AutoML:

  • event_log : h3OFrame с выбранными внутренними событиями AutoML, созданными во время обучения.

  • training_info : словарь, содержащий данные, которые могут быть полезны для постанализа (например, различные тайминги). Если вам нужно время обучения и прогнозирования для каждой модели, проще изучить эти данные в расширенной таблице лидеров, используя функцию h3o.get_leaderboard() .

 # Получить журнал событий AutoML
журнал <- [email protected]_log

# Получить информацию о времени тренировки
информация <- [email protected]_info
 
 # Получить журнал событий AutoML
лог = амл.Журнал событий

# Получить информацию о времени тренировки
информация = aml.training_info
 

Экспериментальные функции

Предварительная обработка

Начиная с h3O 3.32.0.1, AutoML теперь имеет параметр предварительной обработки с минимальной поддержкой автоматического целевого кодирования категориальных переменных с высокой кардинальностью. Единственная поддерживаемая в настоящее время опция — это preprocessing = ["target_encoding"] : мы автоматически настраиваем модель Target Encoder и применяем ее к столбцам, которые соответствуют определенным требованиям кардинальности для древовидных алгоритмов (XGBoost, h3O GBM и Random Forest).Работа по улучшению поддержки автоматизированной предварительной обработки (повышение производительности модели, а также настройка) задокументирована в этом тикете.

Часто задаваемые вопросы

Текущая версия AutoML обучает и выполняет перекрестную проверку следующих алгоритмов: три предварительно заданных модели XGBoost GBM (Gradient Boosting Machine), фиксированная сетка GLM, случайный лес по умолчанию (DRF), пять предварительно заданных h3O GBM, глубокая нейронная сеть почти по умолчанию, чрезвычайно рандомизированный лес (XRT), случайная сетка XGBoost GBM, случайная сетка h3O GBM и случайная сетка глубоких нейронных сетей.В некоторых случаях на выполнение всех алгоритмов не хватит времени, поэтому некоторые могут отсутствовать в таблице лидеров. В других случаях сетки остановятся раньше, и если останется время, две верхние случайные сетки будут перезапущены для обучения большего количества моделей. AutoML обучает несколько моделей Stacked Ensemble на протяжении всего процесса (дополнительная информация об ансамблях приведена ниже).

Отдельные алгоритмы (или группы алгоритмов) можно отключить с помощью аргумента exclude_algos . Это полезно, если у вас уже есть некоторое представление об алгоритмах, которые будут хорошо работать с вашим набором данных, хотя иногда это может привести к потере производительности, поскольку большее разнообразие среди набора моделей обычно увеличивает производительность Stacked Ensembles.В качестве первого шага вы можете оставить все алгоритмы включенными и изучить их характеристики производительности (например, скорость прогнозирования), чтобы понять, что может быть практически полезно в вашем конкретном случае, а затем отключить алгоритмы, которые не интересны или бесполезны. тебе. Мы рекомендуем использовать интерфейс объяснимости модели h3O для изучения и дальнейшей оценки ваших моделей AutoML, что может помочь вам в выборе модели (если у вас есть другие цели, помимо простого повышения точности модели).

Список гиперпараметров, найденных для каждого алгоритма в процессе AutoML, включен в приложение ниже.Более подробная информация о диапазонах гиперпараметров для моделей в дополнение к жестко запрограммированным моделям будет добавлена ​​в приложение позднее.

AutoML обучает несколько моделей Stacked Ensemble во время выполнения (если ансамбли не отключены с помощью exclude_algos ). Мы разделили обучение моделей в AutoML на «группы моделей» с разными уровнями приоритета. После завершения каждой группы и в самом конце процесса AutoML мы обучаем (максимум) два дополнительных составных ансамбля с существующими моделями.В настоящее время существует два типа составных ансамблей: один включает все базовые модели («Все модели»), а другой состоит только из лучших моделей из каждого семейства алгоритмов («Лучшие из семейства»). Ансамбли Best of Family более оптимизированы для использования в производстве, поскольку содержат только шесть (или меньше) базовых моделей. Это должно быть относительно быстро для использования в производстве (для создания прогнозов на основе новых данных) без значительного ухудшения производительности модели по сравнению, например, с окончательным ансамблем «Все модели».Это может быть полезно, если вы хотите повысить производительность модели за счет ансамбля без дополнительного времени или сложности большого ансамбля. Вы также можете изучить некоторые из более ранних составных ансамблей «Все модели», в которых меньше моделей, в качестве альтернативы ансамблям «Лучшее из семейства». Метод метаанализа, используемый во всех ансамблях, представляет собой вариант метаанализа составного ансамбля по умолчанию: неотрицательный GLM с регуляризацией (лассо или эластичная сеть, выбранная CV) для поощрения более разреженных ансамблей. Metalearner также использует логит-преобразование (на базовом CV учащегося) для задач классификации перед обучением.

Сведения о том, чем предыдущие версии AutoML отличались от текущей, можно найти здесь.

Вместо сохранения самого объекта AutoML в настоящее время лучше всего сохранять модели, которые вы хотите сохранить, по отдельности. Утилита для сохранения всех моделей одновременно, а также способ сохранения объекта AutoML (с таблицей лидеров) будут добавлены в будущем выпуске.

Модели

XGBoost в AutoML могут использовать графические процессоры.Имейте в виду, что должны быть выполнены следующие требования:

  • Графические процессоры NVIDIA (GPU Cloud, DGX Station, DGX-1 или DGX-2)

  • CUDA 8

Вы можете отслеживать использование графического процессора с помощью команды nvidia-smi . Обратитесь к https://developer.nvidia.com/nvidia-system-management-interface для получения дополнительной информации.

AutoML включает в свой набор алгоритмов XGBoost GBM (машины повышения градиента). Эта функция в настоящее время предоставляется со следующими ограничениями:

  • XGBoost недоступен на компьютерах с Windows.

  • XGBoost используется только в том случае, если он доступен глобально и не был явно отключен. Вы можете проверить, доступен ли XGBoost, используя h3o.xgboost.available() в R или h3o.estimators.xgboost.h3OXGBoostEstimator.available() в Python.

Если вы используете версию 3.34.0.1 или более позднюю, AutoML должен использовать все время, отведенное ему с помощью max_runtime_secs . Однако если вы используете более раннюю версию, ранняя остановка была включена по умолчанию, и вы можете остановить ее раньше.При ранней остановке AutoML остановится, как только «достаточно» дополнительных улучшений станет недостаточно. Пользователь может настроить параметры ранней остановки, чтобы они были более или менее чувствительными. Установите stop_rounds выше, если вы хотите замедлить раннюю остановку и позволить AutoML обучать больше моделей перед остановкой.

Цитата

Если вы цитируете алгоритм h3O AutoML в статье, укажите ссылку на нашу статью из 7-го семинара ICML по автоматизированному машинному обучению (AutoML). Отформатированная версия цитаты будет выглядеть так:

Эрин ЛеДелл и Себастьян Пуарье. h3O AutoML: масштабируемое автоматическое машинное обучение . 7-й семинар ICML по автоматизированному машинному обучению (AutoML), июль 2020 г. URL-адрес https://www.automl.org/wp-content/uploads/2020/07/AutoML_2020_paper_61.pdf.

Если вы используете Bibtex:

 @статья{h3OAutoML20,
    title = {{h3O} {A}uto{ML}: масштабируемое автоматическое машинное обучение},
    автор = {Эрин ЛеДелл и Себастьян Пуарье},
    год = {2020},
    месяц = ​​{июль},
    журнал = {7-й семинар ICML по автоматизированному машинному обучению (AutoML)},
    URL-адрес = {https://www.automl.org/wp-content/uploads/2020/07/AutoML_2020_paper_61.pdf},
}
 

Алгоритм h3O AutoML был впервые выпущен в версии h3O 3.12.0.1 6 июня 2017 г. Если вам нужно процитировать конкретную версию алгоритма h3O AutoML, вы можете использовать дополнительную ссылку (используя соответствующую версию, замененную ниже) следующим образом:

 @Вручную{h3OAutoML_33212,
    название = {{h3O} {A}uto{ML}},
    автор = {h3O.ai},
    год = {2021},
    примечание = {h3O версия 3.32.1.2},
    url = {http://docs.h3o.ai/h3o/latest-stable/h3o-docs/automl.html},
}
 

Информация о том, как цитировать программное обеспечение h3O в целом, содержится в разделе часто задаваемых вопросов h3O.

Параметры случайного поиска по сетке

AutoML выполняет поиск гиперпараметров по различным алгоритмам h3O, чтобы предоставить наилучшую модель. В таблице ниже мы перечисляем гиперпараметры вместе со всеми потенциальными значениями, которые могут быть выбраны случайным образом при поиске. Если в этих моделях для гиперпараметра также установлено значение, отличное от значения по умолчанию, мы также идентифицируем его в списке.Случайный лес и чрезвычайно рандомизированные деревья не используются для поиска по сетке (в текущей версии AutoML), поэтому они не включены в приведенный ниже список.

Примечание : AutoML не выполняет стандартный поиск по сетке для GLM (возвращая все возможные модели). Вместо этого AutoML строит одну модель с включенным параметром lambda_search и передает список из альфа-значений . Он возвращает только модель с лучшей комбинацией альфа-лямбда, а не по одной модели для каждой комбинации альфа-лямбда.

Гиперпараметры GLM

В этой таблице показаны значения GLM, по которым выполняется поиск при выполнении поиска сетки AutoML. Дополнительная информация доступна здесь.

Примечание : GLM использует собственный поиск по внутренней сетке, а не интерфейс h3O Grid. Для GLM AutoML создает единую модель с включенным параметром lambda_search и передает список из альфа-значений . Он возвращает одну модель с наилучшей комбинацией альфа-лямбда, а не одну модель для каждой альфы.

Параметр

Значения с возможностью поиска

альфа

{0,0, 0,2, 0,4, 0,6, 0,8, 1,0}

Гиперпараметры XGBoost

В этой таблице показаны значения XGBoost, по которым выполняется поиск при выполнении поиска сетки AutoML. Дополнительная информация доступна здесь.

Параметр

Значения с возможностью поиска

бустер

гбтри , дротик

col_sample_rate

{0.6, 0,8, 1,0}

col_sample_rate_per_tree

{0,7, 0,8, 0,9, 1,0}

макс_глубина

{5, 10, 15, 20}

мин_рядов

{0,01, 0,1, 1,0, 3,0, 5,0, 10,0, 15,0, 20,0}

деревья

Жестко запрограммировано: 10000 (истинное значение найдено при ранней остановке)

reg_alpha

{0.001, 0,01, 0,1, 1, 10, 100}

reg_lambda

{0,001, 0,01, 0,1, 0,5, 1}

частота дискретизации

{0,6, 0,8, 1,0}

ГБМ Гиперпараметры

В этой таблице показаны значения GLM, по которым выполняется поиск при выполнении поиска сетки AutoML. Дополнительная информация доступна здесь.

Параметр

Значения с возможностью поиска

col_sample_rate

{0,4, 0,7, 1,0}

col_sample_rate_per_tree

{0,4, 0,7, 1,0}

скорость обучения

Жестко запрограммировано: 0.1

макс_глубина

{3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17}

мин_рядов

{1, 5, 10, 15, 30, 100}

min_split_improvement

{1e-4, 1e-5}

деревья

Жестко запрограммировано: 10000 (истинное значение найдено при ранней остановке)

частота дискретизации

{0.50, 0,60, 0,70, 0,80, 0,90, 1,00}

Гиперпараметры глубокого обучения

В этой таблице показаны значения глубокого обучения, поиск по которым выполняется при выполнении поиска сетки AutoML. Дополнительная информация доступна здесь.

Параметр

Значения с возможностью поиска

активация

Жестко запрограммировано: RectifierWithDropout

эпох

Жестко запрограммировано: 10000 (истинное значение найдено при ранней остановке)

эпсилон

{1e-6, 1e-7, 1e-8, 1e-9}

скрытый

  • Поиск по сетке 1: {20}, {50}, {100}

  • Поиск по сетке 2: {20, 20}, {50, 50}, {100, 100}

  • Поиск по сетке 3: {20, 20, 20}, {50, 50, 50}, {100, 100, 100}

hidden_dropout_ratios

  • Поиск по сетке 1: {0.1}, {0,2}, {0,3}, {0,4}, {0,5}

  • Поиск по сетке 2: {0,1, 0,1}, {0,2, 0,2}, {0,3, 0,3}, {0,4, 0,4}, {0,5, 0,5}

  • Поиск по сетке 3: {0,1, 0,1, 0,1}, {0,2, 0,2, 0,2} {0,3, 0,3, 0,3}, {0,4, 0,4, 0,4}, {0,5, 0,5, 0,5}

input_dropout_ratio

{0,0, 0,05, 0,1, 0,15, 0,2}

ро

{0.9, 0,95, 0,99}

Дополнительная информация

Разработка AutoML отслеживается здесь. На этой странице перечислены все открытые или незавершенные заявки AutoML JIRA.

.