Тем не менее, это не мешает нам рассуждать об этом понятии.
Cyanide Kualus писал(а):А вообще если ИИ весь из себя такой умный, то это явно не гарантия победы. Зерг раш никто не отменял, сервак вполне материален.
Ровно в той же степени, что и человеческое тело. Так что если ИИ будет достаточно умным, он в первую очередь обеспечит безопасность сервака. Мы можем, конечно, рассуждать, насколько это реально, но проблему многие видят именно в том, что саморазвивающийся ИИ может с огромной скоростью достичь такого уровня, какого мы в таких дискуссиях никогда не достигнем, а в этом случае он станет абсолютно непредсказуем для человеческого сознания - мы станем просто животным в его руках.
Smikey писал(а):Тест Тьюринга, при всех своих недостатках, достаточно прост и понятен, чтобы хоть как-то дать определение этому самому загадочнумо сильному ИИ.
А какие у него недостатки по-твоему?
Главный недостаток - это то, что он должен продемонстрировать не столько сам интеллект, сколько способность подражать конкретной разумной расе - человеку. Вот спросят у него, сколько будет 9^9? Он это вычислит с такой же скоростью, как сейчас это делает Wolfram|Alpha. Но чтобы пройти тест, ему придётся исхищряться, чтобы не подать виду, что он это сделал.
И во многом усилия Тьюринг-тестеров сейчас направлены на то, чтобы копировать ошибки и недостатки человека, а не на то, чтобы продвинуть свой ИИ.