Вместо того, чтобы предлагать в 100500 раз перевернуть строку, отсортировать массив и тому подобное — придумайте аналогичную задачку, где фигурирует файл на 100 Гб (скажем, это какой-нибудь лог). Например:
На диске лежит файл log.txt объемом 100 Гб, в котором записаны строки вида UUID,DD-MM-YYYY,hh-mm (например, 123e4567-e89b-12d3-a456-426655440000,01-12-2018,01-35), строки разделяются последовательностью CR-LF. Имеется компьютер с разумным размером оперативной памяти (скажем, 16 Гб), отсортируйте файл по UUID-ам.
Очень оживляет обсуждение.
Куда эффективнее будет создать методику управления проектом, которая бы не допускала получение продукта, генерирующего текстовые файлы (тем более логи) таких размеров.
Ну я и говорю — стагигабайтный лог очень оживляет обсуждение, начиная от вопроса, откуда он такой взялся.