?

Log in

Оригинал взят у big_frog в Схема информационных потоков
Кемпинский ввел понятие информационного метаболизма.
Аушра предложила свою версию, очень смело составив сферическую модель из функций Юнга в вакууме.
Пора перейти к модели основанной на объективных знаниях из нейрофизиологии.
На картинке ниже нарисованы основные информационные потоки а также места локализации соционических и психософских различий.

про психософию.Collapse )

Внутреннее и внешнее время и память системы.



1) Если у системы нет памяти, то для нее не существует внутреннего отсчета времени, каким бы быстрым не было тн субъективное время системы, то есть число обрабатываемых единиц информации в секунду.

Сопсно можно разделять память на время, на факт, на некий аспект и на содержание события - что тоже весьма интересно попробовать повспоминать, что именно осталось и что будет если одного или другого не будет )

2) если у системы нет и внешнего источника синхронизации, которые бы указывали системе время ИЛИ у системы нет возможности использовать эту внешнюю синхронизацию - то у системы так-же нет внутреннего времени.

Этот вариант похож на переживание времени в Самадхи, когда за минуты проходят часы.

Это не напоминает ли вам большинство людей, считающих (по их ощущениям), что они живут вечно и жалующихся на то, что время/года "прошли быстро" ?
Оригинал взят у ailev в lytdybr
.

Поговорили вчера с другом-психологом. У неё очередная человечья классификация в фаворе, http://humandesign.pro/. До этого были MMPI, Сонди, Люшер, астрология, крайон, и сейчас этот "дизайн человека" (с намеренно встроенной противоречивостью в каждом пункте: явная опора на ба-гуа). Собственно, у неё есть некоторое своё внутреннее представление о человеке, на нейтральном по отношению ко всем этим внешним представлениям внутреннем языке -- и дальше она вовне просто коммуницирует это представление в терминах той или иной системы как говорила бы на китайском или испанском или турецком. Ибо без разницы какая именно психологическая онтология, она просто оформляет свою чуйку психолога в каком-то заданном языке, делает мэппинг (и да, целевой язык тоже влияет на мышление и эту самую чуйку, поэтому билингвы тут часто выигрывают, они могут разотождествить себя с выбранным языком). Почему такая эзотерика превалирует в выбранных языках психологической работы? А что ещё делать ей, как университетскому преподавателю психфака, если все "официальные" и "научные" системы бедны онтологически, бедны языково, зациклены на какой-то одной идее (то есть несистемны, редукционистичны) и поэтому плохо позволяют коммуницировать важные и сложные психологические проблемы? Особенно, если не хочется работать "по форме", "процессно", как принято в НЛП, а хочется и в содержание тоже забираться. В данном случае мне интересно наблюдать, как у неё все эти языки и методы потихоньку со временем меняются, уже почти три десятка лет с изумлением наблюдаю. И да, про онтологии-логики-рациональность у неё всё в порядке, просто некоторые методологические выборы делаются другие.


Не понимаю как адепт системной инженерии не привел экономической и временнОй составляющих, но тут
1) гонка ведется с точки зрения и времени и денег.

2) Одновременно характер изменений таков, что Доллар инвестиций в ИКТ вообще и в ОКОЛО-ИИ сегодня и через 5 лет это 2 совершенно разных доллара даже не по количеству а по КАЧЕСТВУ.

3) В причинах - массовый параллелизм разработчиков и Дисраптор дисраптит дисраптора на каждом шагу,

4) поэтому тут (до момента П ) действует контринтуитивный закон "кто позже встал - того и тапки" (кто раньше встал -того и в топку, ага ))).

5) Отдельно про "момент П". Для каждой технологии он свой и через свои критерии. Для всяких соцсетей это например скорость роста количества пользователей а для оружия - скорость их уменьшения, ага )

6) Поэтому есть разные по качеству, возможностям и последствиям СМЫСЛЫ применения АИ. В период проведения (непрекращающихся) боевых действий важность имеют только то что прямо или косвенно влияет на выживание. Как чего выживания ? Ну не человечества-же, что за наивняк ?

7) В сингулярность человечество н проходит, вам же давно про размеры проходящих в нее систем прямо говорят (Через игольное ушко, Карл ! )

Оригинал взят у ailev в Об сопоставление вычислительной мощности мозга и современных нейронных сеток
Тусовки модельеров мозга, суперкомпьютерщиков разного сорта, глубоких обучальщиков (программистов, математиков, артигогов -- http://ailev.livejournal.com/1011621.html) бурно обсуждают разные сравнения вычислительной мощности мозга и современного компьютера. Наброс на вентилятор в этой волне обсуждений был тут: https://timdettmers.wordpress.com/2015/07/27/brain-vs-deep-learning-singularity/ (с выводом, что компьютерам до мозга ещё развиваться и развиваться), асимметричный ответ тут https://www.reddit.com/r/MachineLearning/comments/3eriyg/the_brain_vs_deep_learning_part_i_computational/, а дальше пошли клочки по закоулочкам: начали вытаскивать и старинные работы типа http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3767911/ и экономические оценки типа http://aiimpacts.org/costs-of-human-level-hardware/ (в этом материале см. внизу страницы related posts, и там много-много ссылок на другие работы).

Мои две копейки на останов вентилятора:

1. Сравнение никому не нужно, важно это только с точки зрения пиара -- никаких выводов ни про сингулярность, ни про глупость компьютеров, ни про умность человека из этого сравнения сделать нельзя.

2. В нейронных сетках их целевая работа быстра, эффективна и требует очень мало памяти. Проблема не в работе, проблема в научении. Скажем, человека нужно учить 15 лет в школе и высшей школе. Зато после этого он легко решит какую-нибудь математическую задачку за день. Оценивать нужно не этот день, оценивать нужно те 15 лет, в них вся фишка. 365*15=5475, легко нашли дырку в три с полтиной порядка в оценках производительности. С нейронными сетками то же самое: при нанесении пользы они в тысячу раз быстрей, чем при обучении. FLOPS при этом не волнуют: не все архитектуры позволяют хорошо задействовать эти FLOPS -- архитектуры графических GPU тут не слишком хороши, а мозг тоже никто не проверял, насколько он в этом плане хорош.

3. Как говорил кот Матроскин, средства у нас есть, у нас ума не хватает -- важно, как распорядиться имеющимися FLOPS. То, что в изменениях алгоритмов можно легко найти ещё три порядка, это даже не вопрос. То, что эти самые FLOPS можно аппаратно развернуть в поддержку правильных алгоритмов, это тоже не вопрос. Более того, FLOPS бывают разные -- в сетках необязательна двойная точность, а какой именно минимальной должна быть одинарная точность мы ещё не знаем, и аппаратуру под это ещё толком не подстраивали, идут только первые эксперименты. Более того, эксперименты с аппаратурой "сделаем как в мозге" -- это неправильные эксперименты, это эксперименты с махолётами вместо экспериментов с самолётами или вертолётами.

4. Так что сравнивают бегемотов с апельсинами, удивляются такому разнообразию оценок в наш век точных измерений и научных расчётов. Пустое это. С другой стороны, есть нюх -- этот нюх показывает, что текущей аппаратной базы уже начинает хватать для решения ну очень крутых задач. Если суперкомпьютеры грузануть нейронной сеткой, а не моделированием атомных взрывов, их можно ой сколько чему интересному научить уже сегодня -- если сообразить, чему учить и как учить. Впрочем, Гугль и Фейсбук делают примерно это, только на кластерах с GPU, тоже интересно получается.

5. Скорость, конечно, является на сегодня сдерживающим фактором: лимитирует тут скорость обучения, оно сегодня запредельно медленное, а массово-параллельные алгоритмы только-только начинают предлагаться.

6. Но и скорость тут не главное: из одной и той же мокрой нейронной сетки (ага, wetware) можно научить Нобелевского лауреата, а можно (если учить будут звери) Маугли -- при этом даже не получится научить говорить, несмотря на всю предрасположенность человечьего мозга к речи. Вот это и есть лимитирующий фактор: нет наборов учебных данных, нет постановки учебных задач, нет понимания, как учить сетку, нет понимания, как комплексировать разное выученное, чтобы добиться универсализма. Тезис Lenat, что при решении большинства интересных задач задействуется неожиданно большое количество знаний common sence, и что по пути Eurisko (даже если ей выдать современный суперкомпьютер) быстро не продвинешься -- этот тезис остаётся верен до сих пор.

7. Хотя я всё думаю, что было бы, если бы взять Eurisko (1982-83) и реализовать её на GTX Titan X -- мне кажется, могло получиться примерно то же, что с нейронными сетками, когда им дали достаточно аппаратных ресурсов: результаты могли бы быть сногсшибающими. Можно было бы сделать "исторический" хакатон -- и тряхнуть той идеологической стариной на новый технологический лад. Learning by discovery может оказаться не такой плохой идеей на современных вычислительных ресурсах. Скорость и размер (памяти) таки имеют значение. Хотя NP-полные задачи и требуют себе экспоненциального роста вычислительных ресурсов, но именно такой рост нам и обеспечивал закон Мура некоторое время. И слишком высоко на экспоненте висящие в 1983 году плоды могут оказаться низко висящими в 2015 (а высоко висящими -- плоды, которые в 1983 году вообще не были видны). За время пути собачка смогла подрасти.

8. Моя оценка (и я её обсудил с разными людьми) -- что мощности сегодняшних 2000 GTX Titan X (это примерно $2млн., не бог весть какой суперкомпьютер) при понимании как ими пользоваться должно хватить для создания реально неглупого компьютерного собеседника (врача, юриста -- это "например"), причём за год. Не хватает сейчас главного: понимания, как такой вычислительной мощностью правильно пользоваться, как модуляризовать результирующую систему (например, как сочетать "жёсткую логику" и "интуицию и аналогии" -- в реальной работе они обе ведь участвуют), как поставить задачу на обучение и где брать для него данные, как тестировать результат. Вот это понимание и может легко растянуться до момента получения приемлемых результатов и на пять лет, и на десять. Плюс за эти пять или десять лет легко может измениться само понятие "приемлемых результатов".

9. Сегодняшняя ситуация такова, что довольно быстро выстраивается новый технологический стек, ряд новых технологических платформ. Нижние уровни (FPGA, GPU от NVIDIA, что-то от AMD, многоядерные процессоры от INTEL), языки (python, lua, c++, новички типа Julia -- языков тут уже хватает, как и везде), спецбиблиотеки (Theano, Caffe, Torch -- их десятки уже, если не сотни) -- и специфика предметной области сидит ровно тут: все настройки и оптимизации из прикладных задач постепенно уползут в эти библиотеки-фреймворки, которые станут скоро толстыми "платформами". Это важно, ибо если мы тут ускорим дело всего на порядок, то стартап чему-то научит свою сетку не за десять лет, а за год за ту же сумму денег. Ну, или за тот же год, но возьмёт на аппаратуру вдесятеро больше денег (если будет знать, как распараллелить это обучение, что тоже не факт).

10. Приложения -- и вот тут, где уже ближе всего к деньгам, тут у нас пока затык. Распознавание речи и аннотация фотографий это хорошо, но именно в области приложений должен произойти прорыв. С переводом с языка на язык (аннотация фотографий, кстати, частный случай перевода -- перевод с видеоязыка на какой-то естественный язык, всё то же самое) уже справляются не хуже, а даже лучше чем при традиционных иерархических парсерах -- https://drive.google.com/file/d/0B16RwCMQqrtdNUptOGtDeDhxZ0E/view, на бирже уже вовсю торгуют с техническим анализом (и пытаются прицепить фундаментальный анализ, хотя бы по открытым источникам), автомобили без водителя -- это про то же самое. Приложений уже тьма, но главные приложения наверняка не придумали ещё. Чемоданы с колёсиками придумали только в 80-х, до этого были только носильщики с тележками. И сложность ещё в том, что мало придумать приложение. Потом это приложение нужно будет научить -- а как его учить? Где брать данные для обучения? Вот это самое сложное. Следовательно, нужно будет как-то предобучать на том, где много данных, а потом доучивать на буквально единичных примерах -- и исправлять потом ошибки как у человека, который тоже на единичных примерах учится, и тоже попервОй учится плохо.

Итого:
-- плевать, сколько мощности у мозга и какой КПД полёта у птички. Нам мощности аппаратуры и сегодняшних алгоритмов уже хватает, чтобы низенько-низенько, но полететь.
-- приложения, как всегда в софте, важнее всего. Способ получения приложений -- не столько кодирование, сколько не-пойми-что на сегодня, артигогика (http://ailev.livejournal.com/1011621.html). Артигоги или как они иногда себя называют, коннекционисты, это то, что становится выше по технологическому стеку, чем программисты. Программисты становятся продолжением аппаратуры, они кодируют общие алгоритмы вместе с математиками, а ближе к пользователям будут уже -- не они, их ручной труд, их ручное кодирование там уже не нужно.
-- технологический стек, где сидят программисты и математики, важен: он может дать (возвращаясь к теме поста) тот порядок или даже пару порядков (а иногда и три порядка) запаса вычислительной мощности, которые позволят обучать приложение на тот самый порядок ли даже три порядка быстрее или качественнее (на выбор), и тем самым побеждать конкурентов. Но главный вывод: технологический стек уже достаточно развит (например, сегодняшняя самая большая наученная сетка -- 160млрд параметров, http://arxiv.org/abs/1506.02338), чтобы (повторюсь) низенько-низенько, но полететь.

А учёные, которые изучают мозг, моделируют мозг, сравнивают мозг с компьютерными чипами -- они учёные, пусть статьи пишут. Сравнивают 160млрд. параметров из самой большой наученной людьми нейросетки с 86млрд.нейронов мозга (http://compulenta.computerra.ru/archive/neuroscience/664455/). Это поможет, например, медикам. Примерно так же, как изучение аэродинамики птичек помогает орнитологам. А авиационщикам помогает изучение аэродинамики не птичек, а их самолётов. Так и создателям нейроприложений поможет не изучение устройства мозга и восхищение его вычислительными возможностями, а изобретение каких-то не связанных с мозгом алгоритмов и улучшение аппаратуры и языков программирования. Бионика хороша для отдельных примеров, она даёт нужную экзотику для научпопа. Бионика для массовой инженерии в больших дозах вредна, она отвлекает.

Пришло время для новой религии, лучше соответствующей современному пониманию реальности, более прагматичной и живой, в общем время религии Жизни. А точнее более полному ее определению - МультиЖизни.

МультиЖизнь человека это совокупность проявленных отдельными слоями жизни эмергентных свойств обеспечивающих бытие. От молекул к молекулярным комплексам, от органелл к клеткам, от тканей к органам и системам, от рефлекторных и автоматических функций к осознанию и воле, от сознания к действиям, от поведения индивида к организациям, от территориальных образований к процессу развития человечества - все это примеры эмергентного проявления свойств различных слоев жизни и их влияния друг на друга.

Такое множественное, совокупное, лежащее в разных по масштабам и свойствам слоях пространственно-временной организации, последовательное и параллельное, осознаваемое и неосознаваемое взаимодействие в теле и сознании мы и будем называть МультиЖизнью.

Понятие МультиЖизни и необходимо нам, чтобы особо подчеркнуть комплексность и совокупность, а не опираться на профанированное массами понятие "Жизнь". Оно необходимо чтобы подчеркнуть необходимость и важность приложения усилий для познания этой совокупности процессов а не довольствования заменяющему это познание ложного чувства "понятности жизни".

Сакральная причина для этого заключается в том, что МультиЖизнь и есть ВАШ Бог, Бог в Вас, Бог для Вас. Он Вас породил, и без него Вас быть не может.

Воистину слава Единой и Великой МультиЖизни ! И да прибудет с вами МультиЖизнь !
Как правильно продвигать иммортализм (атмосфера, словарь, тон, язык тела, факты)
http://pro.moneymappress.com/NVXHCX3/PNVXR647/?iris=374516&h=true

Основы реальности

Как именно из последовательно кодированных сигналов нейросеть формирует то, что мы в последствии считаем "реальным".

http://googleresearch.blogspot.com/2015/06/inceptionism-going-deeper-into-neural.html

Хорошие вопросы - как происходит первичное научение и насколько изменятся возможности восприятия, если отрегулировать или стереть это обучение.
Режим обострения у сингулярности начнется тогда, когда то-же самое (стек и имплементацию) сделают для мозга и его приложений )))

Оригинал взят у ailev в Технологический/платформенный стек
В свежепереведённом на русский (http://panchul.livejournal.com/469643.html) учебнике Дэвида Харриса и Сары Харрис «Цифровая схемотехника и архитектура компьютера» приводится схема уровней определения (в учебнике это названо "уровнями абстракции", но с равным успехом это может быть и "системными уровнями", и "дисциплинами", и "технологическими платформами") электронной вычислительной системы:
definition_level

Эта схема крайне интересна сама по себе. Вот несколько моих мыслей по её поводу:

1. Это образование, Карл.
Сколько всего нужно знать, чтобы сделать что-то осмысленное? Например, учебник Харрис&Харрис, из которого взята диаграмка уровней всего навсего приквел к уже переведённой книжке "Computer Architecture: A Quantitative Approach" Паттерсона и Хеннеси. "Без Х&Х книжка Х-П - это описательное знание, а вот с комбинацией двух книжек студент может что-то реализовать на FPGA" (http://panchul.livejournal.com/469643.html?thread=19173003#t19173003).

То есть это пример тьюторской диаграммы (про определение тьюторства как определение образовательной траектории на множестве отдельных курсов): http://ailev.livejournal.com/1145422.html

Опять же, можно говорить о дисциплине и технологии на каждом из этих уровней и пытаться понять, на каком уровне дисциплины мы учим -- школьном, ПТУ, университетском или предельном. Диаграмма тут может быть совсем другой (хороший пример -- http://matt.might.net/articles/phd-school-in-pictures/), и дальше можно гадать: учить эти уровни один за одним "от математики" (ибо физика тут явно не первой должна стоять), или учить только несколько смежных, или там вообще нет "стека" и последовательности, а какая-то более сложная структура.

2. Определения, абстракции, метасистемные переходы, логические уровни.
Когда мы говорим об уровнях, неплохо бы понимать, что это за уровни. В принципе, это всё уровни определения чего-то: нам нужно описать систему, мы её описываем. Учебники ведь обычно посвящёны моделированию определяемых инженерами систем: вводят самые разные языки моделирования (так, Харрис&Харрис для описания аппаратуры вводит сразу два конкурирующих языка: SystemVerilog и VHDL). Конечно, на разных уровнях определения системы используются разные языки. Языков нужно знать много, и всех языков сразу не выучишь (полиполиглотность -- http://ailev.livejournal.com/1128482.html), мастерство зажигается очень медленно (http://ailev.livejournal.com/1130190.html). Но унификация языков и последюущее моделирование на них (вывод моделей из-под черепов в экзокортекс раньше на бумагу, а нынче в компьютер) позволяет организовать разделение труда. Сложность платформенной многоуровневости раскладывается на множество людей, каждому из которых нужно знать только три смежных уровня, чтобы эффективно встраиваться в технологический/платформенный стек.

Конечно, многоуровневость тут должна быть рассмотрена сразу в трёх направлениях (системный подход ровно об этом, я попытался именно это отразить в своём учебнике по системноинженерному мышлению -- http://techinvestlab.ru/systems_engineering_thinking):
-- многоуровневое определение целевой системы/использующей системы (учебник Харрис&Харрис как раз об этом)
-- многоуровневое определение обеспечивающей системы системы деятельности, которая создаёт целевую систему: кто что с чем зачем делает, чтобы создать целевую систему).
-- многоуровневое определение описаний (информатика как работа агентов с текстами и кодами -- http://ailev.livejournal.com/1008054.html, но также и "гирлянды языков" -- см. мои реплики в дискуссии http://baaltii1.livejournal.com/573648.html).

[TWIMC -- ага, не две доски, а два раза по две доски: третья приставляется и к содержательной, и к организационной доскам]

3. Инновации в технологических платформах.
"Платформа" -- это про модули и интерфейсы. Описываемые уровни платформы (модульные уровни) позволяют задавать модульные слои (layers, а не levels) с понятными интерфейсами друг ко другу. От какого-то уровня вниз или вверх (вниз! и вверх!) можно взять и заменить всю конструкцию, оставив неизменным интерфейс платформы -- все накопленные библиотеки, языки, оборудование, опытных разработчиков и производителей.

Так что эти уровни -- хороший классификатор для пикейножилетной деятельности по отслеживанию технологических прорывов. Я поэтому и перестал с 2010 года заниматься выписыванием технологических/платформенных стеков (последний грех был тут: http://ailev.livejournal.com/781013.html), что при современной глубине платформенного стека изображать из себя Госплан абсолютно бесперспективно, даже если этот Госплан сядет на пароход и поплывёт каким-нибудь форсайт-флотом. Предприниматели же обычно работают с парой (максимум -- тройкой) смежных уровней.

Latest Month

January 2017
S M T W T F S
1234567
891011121314
15161718192021
22232425262728
293031    

Tags

Syndicate

RSS Atom
Powered by LiveJournal.com