Тут все яростно рванулись играться с нейросеточкой, обученной на материалах с гитхаба и стековерфлоу, которая умеет писать тексты и даже программы на многих языках программирования по короткому и простому техническому заданию, типа такого:
Результаты довольно правдоподобные, напоминают творчество студентов-троечников, обработанные плохими копирайтерами (по блевотности от насыщения ключевыми словами). Вообще считаю педагогически крайне полезным инструментом, буду студентам теперь не только проповеди читать, но и задавать простой вопрос: вот на что вы расчитываете, скачав из интернета рефератик и налив воды? Это нейросетки не хуже могут, вас на нейросетку заменят и придется бомжевать идти!
PS Нейросетка на скрине пиздит, сложность этого алгоритма O(n*log n) или O(n²), зависит от реализации ассоциативного массива.
Почему n^2? Вроде всё верно, O(n), если indices это контейнер с доступом за O(1) amortized.
Потому что весь этот amortized — это мошенничество. Ну и да, тестировать эту функцию надо не на игрушечных примерах, а хотя бы на небольшом четырехгигабатном массиве со всеми возможными значениями 32-битного int :)
Почему мошенничество ? )
Потому что можно при желании подобрать такую входную последовательность, что она всю эту «амортизированность» будет ломать гнуснейшим образом.
Какую входную последовательность можно подобрать к добавлению в std::vector, чтобы амортизированность сломалась ?