Главный оффтопик - Флудилка

Азури писал(а):Какой-то ты пессимист, Джо. Все у тебя плохо в жизни, и в прошлом, и в настоящем, и в будущем.

Я не пессимист. Реалист.
Ну подумай. Человеку свойственно ошибаться, забывать, фейлить. А у ИИ это будет сведено к минимуму.
Поставим людей за руль технологического прогресса.
Поставим ИИ за руль технологического прогресса.
Результат предсказуем. ИИ быстрее сделает что-то новое. А еще и далеко-далеко оторвется от органических форм жизни в плане развития технологии. И не только.
Поэтому все, что замедляет или мешает процессу улучшения и совершенствования чего-либо, этот ИИ будет устранять. А под "устранять" ты понимай как угодно.
Jovian808
Wolfram писал(а):Развитие морали, так же как и сама мораль, - субъективное понятие, какое здесь может быть отображение?

И я про то же.

А вообще если ИИ весь из себя такой умный, то это явно не гарантия победы. Зерг раш никто не отменял, сервак вполне материален.
Cyanide Kualus
Cyanide Kualus писал(а):А вообще если ИИ весь из себя такой умный, то это явно не гарантия победы. Зерг раш никто не отменял, сервак вполне материален.

Ты только что проиграл.
Зерг раш это превосходство количества над качеством.
А ИИ сделает контратаку в виде количества и качества.
Jovian808
Тест Тьюринга, при всех своих недостатках, достаточно прост и понятен, чтобы хоть как-то дать определение этому самому загадочнумо сильному ИИ.
А какие у него недостатки по-твоему?

Джов как всегда.
Все, что мешает - устранять. Красивая форма - нацисты крутые.
Smikey
Jovian808 писал(а):
Азури писал(а):Какой-то ты пессимист, Джо. Все у тебя плохо в жизни, и в прошлом, и в настоящем, и в будущем.

Я не пессимист. Реалист.
Ну подумай. Человеку свойственно ошибаться, забывать, фейлить. А у ИИ это будет сведено к минимуму.
Поставим людей за руль технологического прогресса.
Поставим ИИ за руль технологического прогресса.
Результат предсказуем. ИИ быстрее сделает что-то новое. А еще и далеко-далеко оторвется от органических форм жизни в плане развития технологии. И не только.
Поэтому все, что замедляет или мешает процессу улучшения и совершенствования чего-либо, этот ИИ будет устранять. А под "устранять" ты понимай как угодно.

Убить человека он не сможет, если таки ввести ограничения вроде трех законов. А давать работу человеку рядом с ИИ, когда ИИ был создан для этой работы и справляется лучше - глупо и нерационально. И так никто делать не станет. Возьмем примитивный завод по производству каких-нибудь деталей (тут даже ИИ не нужен, простая машинка). Кто будет давать человеку работать на производстве этих деталей (технической части, обработка, заливка, все остальное), когда можно взять одну или несколько машин, которые будут производить эти детали в сотни раз качественнее и быстрее? Просто я говорю об ИИ потому, что они будут способны самосовершенствоваться и развиваться в своей области без вмешательства человека. Ввели новую технологию, объяснили задачу - ИИ взялся за нее и продолжает делать работу лучше и качественнее. Обычные машинки приходится перепрограммировать людям. А это менее рационально и есть вероятность ошибки. Ну, короче, суть ты понил.
Азури
Ren писал(а):Нашёл сейчас у себя саундтрек из DEFCON и задумался.
В той игре, в которую я последние дни играю, Rise of Nations, тоже есть ядерное оружие, но там играть всегда весело, не важно, какую лажу ты там творишь. А играть в DEFCON мне было очень тяжело и страшно


Не знаю, лично я играю с удовольствием. :)

"Выигрыш по очкам присуждается тому государству, у кого в живых осталось больше жителей. Прелесть, верно? «Ну мы же шутим, конечно, — оправдывается Крис в ответ на наши возмущенно вздернутые брови. — Гораздо более странным было бы называть победителем ту сторону, которая успешно разгромила всю вражескую армию! За вашими спинами, значит, зияет гигантская воронка, президент только что выплюнул свою печень на кремлевский стол, уровень радиации такой, что Чернобыль кажется бесплатным солярием, но вы победили! Это же бред, верно? Атомная война это ужас что такое, в ней умирают все. Возможно лишь, что вам все-таки удастся потерять чуточку меньше». Очевидно, в качестве иллюстрации к последнему тезису официальный слоган Defcon звучит так: everybody dies."
- (с) Игромания
[BC]afGun
Jovian808 писал(а):Ты только что проиграл.

То есть априори умный противник всегда сильнее глупого? Интересно, надо запомнить.
Cyanide Kualus
[BC]afGun писал(а):Не знаю, лично я играю с удовольствием. :)

А мне жутко... Становится очень страшно, грустно и тяжело на душе после неё.
Ren
Cyanide Kualus писал(а):(автоопределение)А вообще если ИИ весь из себя такой умный, то это явно не гарантия победы.


ИИ достаточно научиться себя копировать. После этого его долбить будет крайне затруднительно - ведь помимо личности, он он будет злобно бэкапить свой опыт.
[BC]afGun
Cyanide Kualus писал(а):
Wolfram писал(а):Развитие морали, так же как и сама мораль, - субъективное понятие, какое здесь может быть отображение?

И я про то же.

Тем не менее, это не мешает нам рассуждать об этом понятии.
Cyanide Kualus писал(а):А вообще если ИИ весь из себя такой умный, то это явно не гарантия победы. Зерг раш никто не отменял, сервак вполне материален.

Ровно в той же степени, что и человеческое тело. Так что если ИИ будет достаточно умным, он в первую очередь обеспечит безопасность сервака. Мы можем, конечно, рассуждать, насколько это реально, но проблему многие видят именно в том, что саморазвивающийся ИИ может с огромной скоростью достичь такого уровня, какого мы в таких дискуссиях никогда не достигнем, а в этом случае он станет абсолютно непредсказуем для человеческого сознания - мы станем просто животным в его руках.
Smikey писал(а):Тест Тьюринга, при всех своих недостатках, достаточно прост и понятен, чтобы хоть как-то дать определение этому самому загадочнумо сильному ИИ.
А какие у него недостатки по-твоему?

Главный недостаток - это то, что он должен продемонстрировать не столько сам интеллект, сколько способность подражать конкретной разумной расе - человеку. Вот спросят у него, сколько будет 9^9? Он это вычислит с такой же скоростью, как сейчас это делает Wolfram|Alpha. Но чтобы пройти тест, ему придётся исхищряться, чтобы не подать виду, что он это сделал.
И во многом усилия Тьюринг-тестеров сейчас направлены на то, чтобы копировать ошибки и недостатки человека, а не на то, чтобы продвинуть свой ИИ.
Wolfram
Ren писал(а):
[BC]afGun писал(а):Не знаю, лично я играю с удовольствием. :)

А мне жутко... Становится очень страшно, грустно и тяжело на душе после неё.


Ну, понятное дело. Атмосферность там адовая.
Впрочем, в моем случае это компенсируется нездоровой любовью к ядрен-батонам в играх. То ли дело, что мое понимание ядерного вооружения и его последствий несколько более глубокое из-за этого, что бы быть куда более категоричным даже в малейшей возможности использовании оного ИРЛ.
Но в самой игре - злобнее геноцидера еще поискать :P
[BC]afGun
Smikey писал(а):Джов как всегда.
Все, что мешает - устранять. Красивая форма - нацисты крутые.

Ты только что фигню сказал. Или воспринимаешь мои слова слишком близко к сердцу, или понимаешь иначе.
Мне с тобой разговаривать не о чем, низшая форма жизни.

Cyanide Kualus писал(а):То есть априори умный противник всегда сильнее глупого? Интересно, надо запомнить.

Смотрим.
Умный против сильного в некотором роде будет пат. Если сферически и в вакууме, естественно.
Если одновременно умный и сильный, то ни умный ни сильный в своем роде его не одолеют. Если ему дать такого же, умного и сильного, опять же, пат.
ИИ по идее вмещает в себе оба преимущества.

Азури писал(а):Убить человека он не сможет, если таки ввести ограничения вроде трех законов. А давать работу человеку рядом с ИИ, когда ИИ был создан для этой работы и справляется лучше - глупо и нерационально. И так никто делать не станет. Возьмем примитивный завод по производству каких-нибудь деталей (тут даже ИИ не нужен, простая машинка). Кто будет давать человеку работать на производстве этих деталей (технической части, обработка, заливка, все остальное), когда можно взять одну или несколько машин, которые будут производить эти детали в сотни раз качественнее и быстрее? Просто я говорю об ИИ потому, что они будут способны самосовершенствоваться и развиваться в своей области без вмешательства человека. Ввели новую технологию, объяснили задачу - ИИ взялся за нее и продолжает делать работу лучше и качественнее. Обычные машинки приходится перепрограммировать людям. А это менее рационально и есть вероятность ошибки. Ну, короче, суть ты понил.

Тогда в твоем понимании нужны некие машины, которые могут выполнять определенную работу и самосовершенствоваться только в этой области и не более.
А машина не равно ИИ. Это две разные вещи.
И то что ты сказала - это вообще не ИИ а некий "виртуальный интеллект" или что-то в том роде, но никак не ИИ.
Jovian808
Я к тому говорю про победу, что вероятность победы/проигрыша высчитать невозможно.
Cyanide Kualus
[BC]afGun писал(а):Ну, понятное дело. Атмосферность там адовая.
Впрочем, в моем случае это компенсируется нездоровой любовью к ядрен-батонам в играх. То ли дело, что мое понимание ядерного вооружения и его последствий несколько более глубокое из-за этого, что бы быть куда более категоричным даже в малейшей возможности использовании оного ИРЛ.
Но в самой игре - злобнее геноцидера еще поискать :P

Думаю, как раз эта атмосферность на меня и повлияла. Потому что, как уже сказал, в Rise of Nations мне весело закидывать бомбами оппонента или вообще устраивать конец света и самому проиграть тоже из-за этого.
Ren
Хм. А почему вы думаете, что ИИ будет считать со скоростью света? Ведь внешней программы (калькулятора) не предусмотрено, а сам ИИ не обязательно может использовать ресурсы сверхсервера, на котором размещен, усилием воли.
KHORNE
Cyanide Kualus писал(а):Я к тому говорю про победу, что вероятность победы/проигрыша высчитать невозможно.

Это в твоих умозаключениях и рассуждениях. Попробуй рассчитать миллиард вероятностей и возможностей в секунду. И этот ИИ будет проводить моделирование кажлой вероятности/возможности и добьется некоего "идеала".

KHORNE писал(а):Хм. А почему вы думаете, что ИИ будет считать со скоростью света? Ведь внешней программы (калькулятора) не предусмотрено, а сам ИИ не обязательно может использовать ресурсы сверхсервера, на котором размещен, усилием воли.

Он обязательно воспользуется калькулятором. Которую сделает для себя. Если производительности не хватит, он непременно усилит его. Почему не сможет? Для него априори не будет ничего невозможного, если ресурсы "под рукой". Он воспользуется этим. В кратчайшие сроки.
Jovian808
KHORNE писал(а):Хм. А почему вы думаете, что ИИ будет считать со скоростью света? Ведь внешней программы (калькулятора) не предусмотрено, а сам ИИ не обязательно может использовать ресурсы сверхсервера, на котором размещен, усилием воли.

Потому что это входит в мои представления о сильном ИИ. Реализовать счёт с большой скоростью вряд ли проблема большая, чем сделать всё остальное, т.к. она уже решена, пусть и на другой архитектуре.
Wolfram
Jovian808 писал(а):Он обязательно воспользуется калькулятором. Которую сделает для себя. Если производительности не хватит, он непременно усилит его. Почему не сможет? Для него априори не будет ничего невозможного, если ресурсы "под рукой". Он воспользуется этим. В кратчайшие сроки.

Он будет писать калькулятор, как человек. Ведь ресурсы не "под рукой", а этой самой рукой и являются.

Wolfram писал(а):(автоопределение)Потому что это входит в мои
представления о сильном ИИ.

Ясно.
KHORNE
Лол, а если я ему только свои данные и внутренние параметры системы позволю обрабатывать? В смысле не дам средств для сбора другой информации, банально не прикручу. И вывод только в текстовые файлы. Что он сделает-то, даже если решит уничтожить человечество?

Джовиан, миллиард возможностей и вероятностей не всегда дают ценные результаты, при оценке для какого-то времени может возникнуть порядочная каша, которую проще не считать, ибо погрешности копятся. И есть такая штука, как принцип неопределенности.
Cyanide Kualus

Как бы то ни было, предположить, что ИИ будет делать всё в точности, как и человек, можно только в том случае, если его работа будет имитировать работу головного мозга человека. В остальных случаях наверняка найдётся что-то, что он будет делать лучше.
Wolfram
Цианид, считается, что, чтобы получить от сильного ИИ выгоду, придется дать ему какой-то способ взаимодействия с миром. А так как он будет у нас супер-умным, ему не составит труда обмануть тех, кто его охраняет, и с помощью "хитрого плана" все таки получить свободу действий. А там уж натворить бед.

Джов просто не знает, что, чтобы просчитать даже простые шахматы, не хватит времени существования вселенной.

Волфрам, чтобы "обмануть" человека в тесте Тьюринга, компу позволительно делать лучше, чем человек. Он же всегда сможет притвориться. Да и есть люди, которые со скоростью калькулятора считают. Смысл этого теста не в том, чтобы "поймать комп за руку". Если до этого дойдет - значит тест уже пройден.
Smikey
Cyanide Kualus писал(а):Лол, а если я ему только свои данные и внутренние параметры системы позволю обрабатывать? В смысле не дам средств для сбора другой информации, банально не прикручу. И вывод только в текстовые файлы. Что он сделает-то, даже если решит уничтожить человечество?

Ты не дашь, а кто-то другой даст. И даже если будет система, строго это контролирующая, то придумать, как сбить эту систему с толку изнутри, теоретическая возможность остаётся. Предположить, что программе никто никогда не даст доступа к чему-то, к чему она его получить не должна, будет очень смело. Взять хотя бы недавно раскрытый вирус Regin.
Wolfram
KHORNE писал(а):Он будет писать калькулятор, как человек. Ведь ресурсы не "под рукой", а этой самой рукой и являются.

Нет. Он будет писать калькулятор по-своему. По своей программе, которую он самосовершенствовать будет.

Cyanide Kualus писал(а):Лол, а если я ему только свои данные и внутренние параметры системы позволю обрабатывать? В смысле не дам средств для сбора другой информации, банально не прикручу. И вывод только в текстовые файлы. Что он сделает-то, даже если решит уничтожить человечество?

Джовиан, миллиард возможностей и вероятностей не всегда дают ценные результаты, при оценке для какого-то времени может возникнуть порядочная каша, которую проще не считать, ибо погрешности копятся. И есть такая штука, как принцип неопределенности.

Он в любом случае будет искать другие источники информации. Да и заблокировать его в таких условиях невозможно будет. Если и получится, то это не ИИ.

Не всегда, но совокупность информации дают плоды. А что до погрешностей... ИИ же не собирается воплощать все и сразу, прямо сейчас. Прежде чем начинать некую "войну" или "чистку", он взвесит "за" и "против". А также оценит свои возможности и силы. Поэтому прежде чем он что-то сделает в итоге, он будет добиваться самосовершенствования, да и такого, что нам и не приснится.
Jovian808
Smikey писал(а):Джов просто не знает, что, чтобы просчитать даже простые шахматы, не хватит времени существования вселенной.

Только если не суметь оптимизировать этот перебор.
Smikey писал(а):Волфрам, чтобы "обмануть" человека в тесте Тьюринга, компу позволительно делать лучше, чем человек. Он же всегда сможет притвориться. Да и есть люди, которые со скоростью калькулятора считают. Смысл этого теста не в том, чтобы "поймать комп за руку". Если до этого дойдет - значит тест уже пройден.

Нет, не позволительно, по самому определению теста Тьюринга. Именно, что надо притворяться. А это задача уже другого уровня. Вот ты уверен, что сможешь лучше сымитировать ребёнка, решающего пример типа 64+77, чем он сам это сделает?
Wolfram
Если ИИ дотаточно умен, чтобы я принял его за человека, он будет достаточно умен, чтобы притвориться в решении таких задач. Более того, если он будет достаточно убедителен, я так и быть прощу ему мелкие промахи типа быстрого счета.
Я считаю главной проблемой теста его простоту. Человека довольно легко обмануть, многие даже примитивных чат ботов принимают за людей. Думаю тест Тьюринга будет пройден до того, как появится полноценный ИИ.
Smikey
"полноценный" ИИ это и есть ИИ. Иначе никак.
Jovian808
Jovian808 писал(а):Он в любом случае будет искать другие источники информации. Да и заблокировать его в таких условиях невозможно будет.

Ввод/вывод - штука деликатная, из ниоткуда не берется. Если ты оторвешь человеку руки и ноги, положишь в комнате и попросишь достать ключи с приваренного к полу стола, то он может быть хоть академиком, но ничего не достанет.
Cyanide Kualus
Привет Доннел
zev_zev
Cyanide Kualus писал(а):Ввод/вывод - штука деликатная, из ниоткуда не берется. Если ты оторвешь человеку руки и ноги, положишь в комнате и попросишь достать ключи с приваренного к полу стола, то он может быть хоть академиком, но ничего не достанет.

Ты слишком узко мыслишь. И сравнение человека с ИИ некорректно. ИИ это не машина в образе человека с его ограничениями и недостатками. До того как он начнет что-то замышлять против людей, он прочно внедрится и углубится во все сферы деятельности, где человек есть, будет делать миллиард и один путь обхода/защиты. Да и притом сделает так, что никто и не заметит. А когда он начнет... Что-то делать будет уже поздно.

Другое дело - это сделать ИИ без модулей беспроводной связи, лишить его инструментов и заключить в комнату. Но мы же не об этом говорим, да?
Jovian808
Цианид, дело в том что неизвестно каким будет ИИ. Он может быть умнее человека в 1000 раз, и даже без рук и ног сможет выкрутиться. Для начала убедит тебя прикрутить ему руки и ноги. (Я лично так не думаю, но есть такое мнение. Начните хотя бы с фанфика про Селестию, если вас эта тема интересует).
Smikey
Если убедит, то да. Из других возможностей только появление их из ниоткуда.
Связь только через текстовый ввод/вывод. Никакого интернета-телефона. Никаких клешней. А если откажется отвечать на поставленные задачи в таком состоянии, то я лучше сделаю не ИИ, а нечто более практически применимое.
Cyanide Kualus
Эмиссар
Пикча одобрена.
GordonFreemane
Cyanide Kualus писал(а):Связь только через текстовый ввод/вывод. Никакого интернета-телефона. Никаких клешней. А если откажется отвечать на поставленные задачи в таком состоянии, то я лучше сделаю не ИИ, а нечто более практически применимое.

Вопрос в том, ты ли диктуешь условия? Лучшие умы этой планеты пытаются сделать ИИ. И твои возражения им будут смешны.
Ты это ты. Пока ты копаешься в политике и прочих философских вопросах, эти умы продвигают науку и технологию далеко-далеко вперед.
Так что, низшая форма жизни, не мучайся этим вопросом. Не знаешь броду - не лезь в воду.
Jovian808
Из-за этой проблемы и нужно чтобы ИИ был добрым. Иначе либо ты получаешь калеку без рук, от которого мало толку, или могущественного "джинна", у которого неизвестно что на уме.
Smikey
Доброта для ИИ - понятие пипец какое относительное.
GordonFreemane
Ну, если я вижу угрозу, то лучшие умы и подавно. Я вообще-то еще, быть может, и буду заниматься этим, у нас на факультете информатика и когнитивистика на уровне, кое-кто по завершении обучения занимается, например, нейросетями.
Cyanide Kualus
Smikey писал(а):(автоопределение)нужно чтобы ИИ был добрым.

Каким воспитаешь таким и будет.
Некоторым людям даже морскую свинку доверить нельзя без того чтобы она не нажралась собственного говна и не сдохла. =\
Эмиссар
Smikey писал(а):Из-за этой проблемы и нужно чтобы ИИ был добрым. Иначе либо ты получаешь калеку без рук, от которого мало толку, или могущественного "джинна", у которого неизвестно что на уме.

Тут-то и начинается самое интересное. Пока еще не нашли альтернативных способов вызвать эмоции одними программами, я продолжаю считать что их можно вызвать только пребывая в "органике". Но органика имеет свойство ошибаться и фейлить, несовершенна (как мы).
Тогда встает вопрос: Что будет если органику с чувствами и эмоциями совместить с ИИ? Не получим ли мы наивысшую форму жизни, которая будет намного выше нас?
Это вообще-то две сложнейшие науки, нам до него как раком до облака Оорта.

Cyanide Kualus писал(а):Ну, если я вижу угрозу, то лучшие умы и подавно.

Тогда почему они рвут жопу, чтобы его создать?
Jovian808
Эмиссар писал(а):
Smikey писал(а):(автоопределение)нужно чтобы ИИ был добрым.

Каким воспитаешь таким и будет.
Некоторым людям даже морскую свинку доверить нельзя без того чтобы она не нажралась собственного говна и не сдохла. =\

Плюсую.

На самом деле, я вижу два исхода. Либо ИИ будет учиться у человека, а учитывая, что в целом Человек - существо омерзительное, то ИИ воспитается соответственно и всё пойдёт по сценарию Джо.
Либо ИИ окажется умнее, и не станет уподобляться "органике".
MBS
Спойлер

Люди про ИИ говорят, а я..
KHORNE
Jovian808 писал(а): органика имеет свойство ошибаться и фейлить, несовершенна

ИМХО. Органика достаточно точный механизм,уж поточнее компов на винде, но медленней, так как все процессы происходят на химическом уровне.
MBS писал(а):Плюсую.

Ух тыыы! Мне кто-то плюсик поставил! Няяя :3
Эмиссар
Чем органика отличается от ее симуляции на компе, что тут могут быть эмоции, а там нет?

ИИ будет учиться у человека, так как больше не у кого. Надо надеятся, что человек этот будет достаточно умным и добрым.
Smikey
Эмиссар писал(а):ИМХО. Органика достаточно точный механизм,уж поточнее компов на винде, но медленней, так как все процессы происходят на химическом уровне.

Тогда почему мы забываем некоторые вещи, совершаем оплошность, допускаем неточность? Не только мы но и всякая живая форма жизни?

И таки... Если совместить лучшее из механики и органики, отсеивая недостатки и совместить их, что в итоге будет?
Jovian808
Jovian808 писал(а):Тогда почему мы забываем некоторые вещи, совершаем оплошность, допускаем неточность? Не только мы но и всякая живая форма жизни?

О каких неточностях ты говоришь? На молекулярном уровне все неплохо работает, а если учесть воздействие многочисленных внешних факторов, то просто отлично. Ошибки находятся и в большинстве случаев исправляются.
Если ты про то почему человек не может производить расчеты, как комп. Ну он на это просто не рассчитан. А вероятность "ошибки" просто заложено в нас эволюцией. Короче, я за Любовь, Мир, Гармонию с природой и Симбиотический Синклит.
Эмиссар
ИИ возможно и будет у человека учиться. Но как только он достигнет определенного уровня развития и будет сам замечать множество человеческих недостатков, он у него больше не будет учиться. Он построит собственную модель, где не будет недостатков и ошибок.

За сим заканчиваю дискуссию, потому что я считаю, что достаточно рассказал необразованным лысым макакам про ИИ. И мне больше нечего добавить. Кто хочет возразить, пусть трижды перепрочитает этот разговор и семь раз подумает.

Эмиссар писал(а):А вероятность "ошибки" просто заложено в нас эволюцией. Короче, я за Любовь, Мир, Гармонию с природой и Симбиотический Синклит.

С Богом. А я лучше за холодный разум, стабильность, точность, нескончаемый прогресс и саморазвитие.
Jovian808
Jovian808 писал(а):И таки... Если совместить лучшее из механики

А что такого прекрасного из механики, что может заменить органические аналоги? Железные руки-ноги? Вой, да я тебя умоляяю.. Импланты нужны только калекам, и то до тех пор, пока люди не научатся отращивать конечности заново, как ящерки.
Jovian808 писал(а):и совместить их, что в итоге будет?

Мясные консервы.

И я не сказал, что поддерживая "органику" я полностью отрицаю "железо". И вообще, что за дискриминация. Это контрпродуктивно.
Ну и ржавей себе дальше, консервная банка. А я буду жмакать мягеньких и тепленьких поняш. :Ъ
Эмиссар
MBS писал(а):Либо ИИ окажется умнее, и не станет уподобляться "органике".

Если по-настоящему умный ИИ поймёт, что его "предназначение" — это как раз забота о людях, то, думаю, это может быть вполне себе неплохим "исходом".
Я опять "рекламирую" старый Deus Ex, да.
Icarus
zev_zev писал(а):Привет Доннел

Привет! Извини, что меня так долго тут не было, но там, где меня держали, средства связи не полагаются...
Donnel
*Рассыпал снега по флудилке*

Агась, меня снова снегом занесло :D
Proudy Hooves