(no subject)
Feb. 12th, 2025 11:23 am![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
https://e2k-4d-x-ussr.livejournal.com/2300543.html
Нынешний ИИ как стадия процесса накопления компетенций это не интеллект, а мат. модели (альтернативно: конечные статистические машины), реализующие свойства интеллекта, скажем, до первой-второй производной на каких-то классах задач. Как механика для физики: вполне годно, чтобы оперировать и решать задачки движения и приложения сил в евклидовом пространстве на Земной поверхности относительно неких нормальных условий в такой же относительной системе единиц, констант и аксиом.
Можно взять охулион охулиард картинок и рассмотреть _это_ как дискретное пространство с такими вот нестандартными точками (как минимум конечно-пятимерными), даже разбить это на классы (привет капча), потом построить модель, реализующую из этого приближение к... (как это называется, блин?!) не дискретному пространству (переход от целых к дробям в приближении вещественных чисел). В итоге получим нечто, что умеет нарисовать "промежуточные точки" в этом охуемерном (тм) пространстве по какой-то "функции" многомерного запроса. Получаем "магию" генерации картинок, даруемую чем? -- ИИ, конечно. Кто ж будет называть эту лабуду матмоделью или метаматмоделью, если есть раскрученное, ёмкое и бесконечнорастяжимое понятие "искусственный интеллект"?
По крайней мере задачи перевода с языка на язык, задачи подачи информации в текстовом виде, написания простейших текстов по тезисам -- это новые языковые мат. стат. модели (LLM) уже, например, решают на уровне сравнимом со средним человеком (естественно для того, кто знает "этикет" запросов к). То есть в охуемерных (тм) пространствах речевых конструкций модели эти могут линейно или псевдонелинейно получить относительно любые переходы и стабильные речевые конструкции.
Вполне себе магия ИИ, с учётом того, что это не программируется классически (как переводчик ПРОМПТа или Гугля образца двадцатилетней давности) через трату "охулиардов" человекочасов, а подбирается через "обучение" на пакете данных, то есть надрачивание конкретной статистической модели на приемлемый результат в конкретном охуемерном (тм) пространстве. ;)
UPD: если ваша задача не требует абсолютной точности и позволяет пользоваться подобным приближением, то у вас появляется инструмент.
Нынешний ИИ как стадия процесса накопления компетенций это не интеллект, а мат. модели (альтернативно: конечные статистические машины), реализующие свойства интеллекта, скажем, до первой-второй производной на каких-то классах задач. Как механика для физики: вполне годно, чтобы оперировать и решать задачки движения и приложения сил в евклидовом пространстве на Земной поверхности относительно неких нормальных условий в такой же относительной системе единиц, констант и аксиом.
Можно взять охулион охулиард картинок и рассмотреть _это_ как дискретное пространство с такими вот нестандартными точками (как минимум конечно-пятимерными), даже разбить это на классы (привет капча), потом построить модель, реализующую из этого приближение к... (как это называется, блин?!) не дискретному пространству (переход от целых к дробям в приближении вещественных чисел). В итоге получим нечто, что умеет нарисовать "промежуточные точки" в этом охуемерном (тм) пространстве по какой-то "функции" многомерного запроса. Получаем "магию" генерации картинок, даруемую чем? -- ИИ, конечно. Кто ж будет называть эту лабуду матмоделью или метаматмоделью, если есть раскрученное, ёмкое и бесконечнорастяжимое понятие "искусственный интеллект"?
По крайней мере задачи перевода с языка на язык, задачи подачи информации в текстовом виде, написания простейших текстов по тезисам -- это новые языковые мат. стат. модели (LLM) уже, например, решают на уровне сравнимом со средним человеком (естественно для того, кто знает "этикет" запросов к). То есть в охуемерных (тм) пространствах речевых конструкций модели эти могут линейно или псевдонелинейно получить относительно любые переходы и стабильные речевые конструкции.
Вполне себе магия ИИ, с учётом того, что это не программируется классически (как переводчик ПРОМПТа или Гугля образца двадцатилетней давности) через трату "охулиардов" человекочасов, а подбирается через "обучение" на пакете данных, то есть надрачивание конкретной статистической модели на приемлемый результат в конкретном охуемерном (тм) пространстве. ;)
UPD: если ваша задача не требует абсолютной точности и позволяет пользоваться подобным приближением, то у вас появляется инструмент.