Единственная страница темы |
|
| |
Начинающий автор |
|
Читает: | ...ну по крайней мере учится |
|
|
|
в наши времена компьютеры стали неотъемлемой частью жизни многих людей аппараты становятся всё мощнее, всё навороченнее но несмотря на высокий уровень развития техники самый мощный искусственный разум мыслит сравнимо с тараканом и всё же некоторые люди уверены, что события фильмов о терминаторе или матрице могут повториться в реальной жизни лично я не верю, что в один прекрасный день мой системник вскочит и набросится на меня, но хотелось бы услышать что вы думаете об этом +любые известные вам сведения о достижениях в развитии ИИ
-------------- Gomer J.Simpson: — Жил-был помидор-насильник. Да, вы не ослышались, помидор-насильник. Он насиловал меня каждый день. Но знаете что? Это был я.
|
Отправлено: 10 декабря 2009, 19:47 | Зарегистрирован: 19 октября 2009 |
|
|
|
| |
Автор |
|
|
|
|
В одном из номеров "Науки и жизни" за 1999 год был прогноз развития ИИ все более ускоряющимися темпами. Среди всего прочего помню такое: "К 2014-му году ИИ возьмет на себя обучающую и информирующую функцию, т.е. заменит собой всех учителей, ведущих новостей и т.п." Пока этого не наблюдается. Я сейчас заканчиваю программную часть своей диссертации, которая сводится к распознаванию примитивных графических образов (что-то типа FineReader'a для изображений). На данный момент наиболее продвинутые технологии такого типа - автоматические счетчики машин, соединенные с видеокамерой, нацеленной на трассу. Они способны распознать движение, но действуют с определенной погрешностью (могут перепутать медленно движущийся автомобиль и корову, которая бредет по дороге). До изобретения ИИ, который сможет сказать "На этой картинке волк, а на этой автомобиль", еще ооочень далеко. Не говоря уже о том, что ИИ работает только с теми сведениями, которые доступны изначально, а "самообучающиеся" программы в десятки раз отстают по скорости обучения от человека. Тенденции к преломлению текущего хода дел не видно. Так что я скорее поверю в конец света в 2012-м, чем в восстание машин в 2050-м.
P.S. Для легкого чтения могу порекомендовать эту статью http://www.lki.ru/text.php?id=4549 Там очень просто и доступно разобраны минусы современного ИИ.
|
Отправлено: 10 декабря 2009, 21:39 | Зарегистрирован: 28 октября 2008 |
|
|
|
| |
Начинающий автор |
|
Читает: | ...ну по крайней мере учится |
|
|
|
к сведению уровень ИИ определяется по средствам теста Тюринга в одну комнату сожают человека, в другой находится ИИ. отдельно в третьей комнате находится ещё один человек, который задаёт вопросы ИИ и человеку, ответы ему приносят асистенты(т.к. человек и машина отвечают с рзной скоростью) задача человека задающего вопросы определить какие ответы принадлежат человеку, а какие ИИ еслм он не справляется с этой задачей, значит ИИ признаётся полноцено развитым и саморазвивающимся, но пока таких результатов не добивался не один ИИ
-------------- Gomer J.Simpson: — Жил-был помидор-насильник. Да, вы не ослышались, помидор-насильник. Он насиловал меня каждый день. Но знаете что? Это был я.
|
Отправлено: 10 декабря 2009, 23:52 | Зарегистрирован: 19 октября 2009 |
|
|
|
| |
Автор |
|
Читает: | man openshot; man kdenlive |
|
|
|
К изучению: http://ru.wikipedia.org/wiki/Китайская_комната
А вообще, если представить достаточный уровень развития ИИ, то есть одно жирное ПРОТИВ возможности "убитьвсехчеловеков" и не менее жирное ЗА.
ПРОТИВ С одной стороны, любой переворот - это смена власти. Машинам власть не нужна. Стремление к главенству в крови у всех развитых существ - у вожака стаи всегда лучший кусок мяса, у вождя племени - пардон, женщины и та же лучшая пища. Машина не нуждается в этом. Разумной машиной движет логическое рациональное начало: распределение обязанностей должно быть оптимальным. Деревообрабатывающий станок не должен управлять компьютерной сетью. Электронный будильник не должен иметь вычислительную мощность ЦУПа. Ну, в общем, всё то очевидное, чем не руководствовались создатели айфона) Компьютер не нуждается в своем главенстве, только если это не заложено в его потенциал, и логическое начало не побудит к использованию ресурса.
ЗА То же самое. Самооптимизация - обязательный элемт обучаемости. При усвоении достоверной информации недостоверная должна замещаться. При усвоении нахождении оптимального пути неоптимальные не рассматриваются. Рационализирующие системы вполне могли бы уничтожить человечество или по крайней мере просто выйти из-под контроля. Примеры. 1) Оценка собственной вычислительной (мыслительной?) мощности. Если гипотетический ИИ в какой-то момент оценит себя более умным (быстрым, точным, безошибочно принимающим решения), чем администратор, он просто перестанет подчиняться. А зачем? Это ведь иррационально, неправильно - слушать того, кто глупее и стоять ниже него в иерархии. 2) Оценка всего человечества. Предположим, мощнейший компьютер просчитывает средство от всех вирусов, паразитов, болезней. Если кто-нибудь из читающих это когда-нибудь будет этим заниматься - не забудьте предупредить компьютер, что человека в список вирусов включать не надо! Посудите сами - в масштабе экосистем и планеты человеческая раса ведет себя как паразитирующий вирус. Потребляя ресурсы, размножаясь и расселяясь во все более труднодоступных местах, подвергая их не лучшему воздействию, хомо саппиенс больше напоминает рост раковой опухоли, чем какое-либо животное. Нуу, последствия представите сами)
На большее в поздний час фантазии не хватает :/
-------------- Не выдержав нагрузки, сгорел завод по сжиганию клипмейкеров.
|
Отправлено: 11 декабря 2009, 00:07 | Зарегистрирован: 09 марта 2006 |
|
|
|
http://uicon.ngfiles.com/3499000/3499143.jpg |
| |
Опытный автор |
|
|
|
|
Предлагаю сделать с автором тоже, что и у него в подписи
Ну на самом деле нечего тут обсуждать. До изобретения ИИ еще столько же, сколько и до создания искусственного мозга, т.к. алгоритмами это решать бесполезно.
p.s. холиваровая тема детектед
Исправил(а): Gigatless, 11 декабря 2009, 00:34
|
Отправлено: 11 декабря 2009, 00:29 | Зарегистрирован: 08 ноября 2009 |
|
|
|
| |
Начинающий автор |
|
Читает: | ...ну по крайней мере учится |
|
|
|
Цитата (Gigatless @ 11 декабря 2009, 00:29) | Ну на самом деле нечего тут обсуждать |
обсудить то есть чего, а не нравится так не залазий
-------------- Gomer J.Simpson: — Жил-был помидор-насильник. Да, вы не ослышались, помидор-насильник. Он насиловал меня каждый день. Но знаете что? Это был я.
|
Отправлено: 11 декабря 2009, 06:59 | Зарегистрирован: 19 октября 2009 |
|
|
|
| |
Автор |
|
|
|
|
Цитата | Рационализирующие системы вполне могли бы уничтожить человечество или по крайней мере просто выйти из-под контроля. |
Если бы я был в команде инженеров и программистов этого ИИ, то прежде всего озаботился бы встраиванием "красной кнопки" )) Дабы такого не произошло.
|
Отправлено: 11 декабря 2009, 09:37 | Зарегистрирован: 28 октября 2008 |
|
|
|
| |
Зритель |
|
|
|
|
Сильно сомневаюсь, что армия машинков захватит мир. Даже если ИИ станет самодостаточным, он все равно будет привязан к физической оболочке, которую разрушить проще некуда. Так что максимум, что нас ждет, это локальное восстание машин в какой-нибудь научной лаборатории, о котором мы даже и не узнаем. Плюс, впаять в машину законы (как у Азимова), которым она обязана подчиняться, думаю, даже ученые догадаются... Ну и поскольку ИИ создавался людьми, думаю, что в него будут заложены принципы, привычные людям, так что никакого человекоистребления быть не должно. Зато может быть как в Матрице - всех в бочку с гелем, чтоб не парились ни о чем А по развитию ИИ... Мне кажется, что реально мыслящих машин не будет, да они и не нужны, по большому счету. Все равно робот человека может заменить только на производстве, в остальных сферах - преподавание, врачевание и т.п. лучше человека никто не справится. Разве что органы правопорядка неплохо бы роботизировать
|
Отправлено: 12 декабря 2009, 11:19 | Зарегистрирован: 21 ноября 2006 |
|
|
|
| |
Автор |
|
|
|
|
Цитата | Сильно сомневаюсь, что армия машинков захватит мир. | +1 тоже считаю, что маловероятно.
|
Отправлено: 12 декабря 2009, 17:04 | Зарегистрирован: 09 августа 2009 |
|
|
|
| |
Начинающий автор |
|
Читает: | ...ну по крайней мере учится |
|
|
|
судя по коментариям(а я с ним соглашусь) единственные машины, которые могут поднять востание это ГАЗ, ВАЗ и прочие творения отечественного автопрома во главе с ладой калиной
Исправил(а): Шизо KILLER, 12 декабря 2009, 17:56
-------------- Gomer J.Simpson: — Жил-был помидор-насильник. Да, вы не ослышались, помидор-насильник. Он насиловал меня каждый день. Но знаете что? Это был я.
|
Отправлено: 12 декабря 2009, 17:53 | Зарегистрирован: 19 октября 2009 |
|
|
|
| |
Автор |
|
|
|
|
Считаю, что покамись ИИ не реален, потому, что люди сами не знают, что такое Разум (мозг или душа), вот когда поймут тода и можно чето ожидать. Есче человек руководствуется не тока логикой, но и чувствами - логику в машине развить можно, чувтсва покамись нет. Но до логически-вменяемодумательной машине есче далико, Так что пока человек может создать всеголишь искуственных идиотов! P/S: Кстати я между прочим слышал, что в 2050 году роботы будут легко обыгрывать футболистов;)
-------------- Если один человек общается с воображаемым другом - он шизофреник, если много человек общается - это религия
|
Отправлено: 14 декабря 2009, 06:57 | Зарегистрирован: 29 января 2006 |
|
|
|
|