C++. Сборник рецептов
Шрифт:
cout << *p << endl;
}
}
split
— это шаблон функции, принимающий три аргумента. Он объявлен вот так. template<typename Seq, typename Coll, typename Pred>
Seq& split(Seq& s, Coll& c, Pred p,
token_compress_mode_type e = token_compress_off);
Seq
, Coll
и Pred
представляют типы результирующей последовательности, входной коллекции и предиката, используемого для определения, является ли очередной объект разделителем.
list<string>
, но вместо него можно было бы использовать и vector<string>
. Аргумент коллекции — это тип входной последовательности. Коллекция — это нестандартная концепция, которая похожа на последовательность, но с несколько меньшими требованиями (за подробностями обратитесь к документации по Boost по адресу www.boost.org). Аргумент предиката — это объект унарной функции или указатель на функцию, которая возвращает bool
, указывающий, является ли ее аргумент разделителем или нет. Она вызывается для каждого элемента последовательности в виде f(*it)
, где it
— это итератор, указывающий на элемент последовательности. is_any_of
— это удобный шаблон функции, поставляющийся в составе String Algorithms, которая облегчает жизнь при использовании нескольких разделителей. Он конструирует объект унарной функции, которая возвращает true
, если переданный ей аргумент является членом набора. Другими словами: bool b = is_any_of("abc")('a'); // b = true
Это облегчает проверку нескольких разделителей, не требуя самостоятельного написания объекта функции.
4.7. Разбиение строки на лексемы
Проблема
Требуется разбить строку на части, используя набор разделителей.
Решение
Для перебора элементов строки и поиска места нахождения следующих лексем и не-лексем используйте методы
find_first_of
и first_first_not_of
. Пример 4.12 представляет простой класс StringTokenizer
, выполняющий эту задачу. Пример 4.12. Разбиение строки на лексемы
#include <string>
#include <iostream>
using namespace std;
// Класс, разбивающий строку на лексемы.
class StringTokenizer {
public:
StringTokenizer(const string& s, const char* delim = NULL) :
str_(s), count(-1), begin_(0), end_(0) {
if (!delim)
delim_ = " \f\n\r\t\v"; //по умолчанию пробельные символы
else
delim_ = delim;
// Указывает на первую лексему
begin_ = str_.find_first_not_of(delim);
end_ = str.find_first_of(delim_, begin_);
}
size_t countTokens {
if (count_ >= 0) // если уже посчитали, то выход
return(count_);
string::size_type n = 0;
string::size_type i = 0;
for (;;) {
//
переход на первую лексему
if ((i = str_.find_first_not_of(delim_, i)) == string::npos)
break;
// переход на следующий разделитель
i = str_.find_first_of(delim_, i+1);
n++;
if (i == string::npos) break;
}
return (count_ = n);
}
bool hasMoreTokens { return(begin_ != end_); }
void nextToken(string& s) {
if (begin_ != string::npos && end_ != string::npos) {
s = str_.substr(begin_, end_-begin_);
begin_ = str_.find_first_not_of(delim_, end_);
end_ = str_.find_first_of(delim_, begin_);
} else if (begin_ != string::npos && end_ == string::npos) {
s = str_.substr(begin_, str_.length-begin_);
begin_ = str_.find_first_not_of(delim_, end_);
}
}
private:
StringTokenizer {}
string delim_;
string str_;
int count_;
int begin_;
int end_;
};
int main {
string s = " razzle dazzle giddyup ";
string tmp;
StringTokenizer st(s);
cout << "Здесь содержится" << st.countTokens << " лексемы.\n";
while (st.hasMoreTokens) {
st.nextToken(tmp);
cout << "token = " << trap << '\n';
}
}
Обсуждение
Разбиение строки с четко определенной структурой, как в примере 4.10, конечно, хорошо, но не все так просто. Предположим, что, вместо того чтобы просто разделить строку на основе единственного разделителя, требуется разбить строку на лексемы. Наиболее частым вариантом этой задачи является разделение на лексемы с игнорированием пробелов. Пример 4.12 дает реализацию класса
StringTokenizer
(аналогичного стандартному классу Java™ с таким же именем) для C++, который принимает символы-разделители, но по умолчанию использует пробелы. Наиболее важные строки в
StringTokenizer
используют методы find_first_of
и find_first_not_of
шаблона класса basic_string
. Их описание и примеры использования даны в рецепте 4.9. Пример 4.12 дает такой вывод. Здесь содержится 3 лексемы.
token = razzle
token = dazzle
token = giddyu
p StringTokenizer
— это более гибкая форма функции split
из примера 4.10. Он поддерживает свое состояние, так что можно просто последовательно переходить с одной лексемы на другую, не разбивая вначале всю строку на части. Также есть возможность подсчитать число лексем.
Поделиться:
Популярные книги
Жалкая
3. Долго и Несчастливо
Любовные романы:
современные любовные романы
5.00
рейтинг книги
Беглец
1. Совсем не герой
Фантастика:
фэнтези
попаданцы
8.94
рейтинг книги
Академия проклятий. Книги 1 - 7
Академия Проклятий
Фантастика:
фэнтези
8.98
рейтинг книги
Измена. Верни мне мою жизнь
Любовные романы:
современные любовные романы
5.00
рейтинг книги
Измена
Любовные романы:
современные любовные романы
5.38
рейтинг книги
Гардемарин Ее Величества. Инкарнация
1. Гардемарин ее величества
Фантастика:
городское фэнтези
попаданцы
альтернативная история
аниме
фантастика: прочее
5.00
рейтинг книги
Сердце для стража
5. Девятый
Фантастика:
фэнтези
боевая фантастика
9.20
рейтинг книги
Черный Маг Императора 11
11. Черный маг императора
Фантастика:
юмористическое фэнтези
попаданцы
аниме
фэнтези
5.00
рейтинг книги
Имя нам Легион. Том 3
3. Меж двух миров
Фантастика:
боевая фантастика
рпг
аниме
5.00
рейтинг книги
Жена фаворита королевы. Посмешище двора
Фантастика:
фэнтези
5.00
рейтинг книги
Как я строил магическую империю 5
5. Как я строил магическую империю
Фантастика:
попаданцы
аниме
фантастика: прочее
фэнтези
5.00
рейтинг книги
Блуждающие огни 2
2. Блуждающие огни
Фантастика:
боевая фантастика
космическая фантастика
попаданцы
альтернативная история
фэнтези
5.00
рейтинг книги
Ратник
3. Помещик
Фантастика:
альтернативная история
7.11
рейтинг книги
Маленькая слабость Дракона Андреевича
1. Танцы на углях
Любовные романы:
современные любовные романы
эро литература
5.25